• Interopérabilitay, par Laurent Chemla » Zone de non-droit
    http://www.non-droit.org/2020/02/22/interoperabilitay

    On nous dira ( » pour votre sécurité « ) que c’est dangereux, parce que nos données personnelles ne seront plus aussi bien protégées, dispersées parmi tellement de services décentralisés et piratables. Mais je préfère qu’une partie de mes données soit moins bien protégée (ce qui reste à démontrer) plutôt que de savoir qu’une entreprise privée puisse vendre (ou perdre) la totalité de ce qui est MA vie.

    On nous dira que c’est « excessivement agressif pour le modèle économique des grandes plateformes », alors qu’évidemment c’est justement le modèle économique des grandes plateformes qui est excessivement agressif envers nos vies privées et nos démocraties, d’une part, et que d’autre part l’interopérabilité ne modifie en rien ce modèle économique : dès lors qu’elles stockent toujours une partie de nos données elles restent (hélas) en capacité de les vendre et/ou de les utiliser pour « éduquer » leurs IA. Tout au plus constateront-elles un manque-à-gagner comptable, mais ne gagnent-elles pas déjà largement assez ?

    À ce jour, l’#interopérabilité s’impose comme la seule solution réaliste pour limiter le pouvoir de nuisance de ces géants, et pour rétablir un peu de concurrence et de décentralisation dans un réseau qui, sinon, n’a plus d’autre raison d’être autre chose qu’un simple moyen d’accèder à ces nouveaux silos (qu’ils devraient donc financer, eux, plutôt que les factures de nos FAI).

  • ENQUETE FRANCEINFO. Comment Doctolib se sert de nos données de santé
    https://www.francetvinfo.fr/sante/professions-medicales/enquete-franceinfo-comment-doctolib-se-sert-de-nos-donnees-de-sante_382

    Lorsque vous utilisez Doctolib pour prendre rendez-vous chez votre dermatologue, par exemple, vous transmettez deux types d’informations bien distinctes à la plateforme : d’un côté, vos données personnelles (nom, adresse e-mail, numéro de téléphone…) ; de l’autre, vos données de santé (rendez-vous avec un praticien, motif de la consultation, ordonnance numérisée après une téléconsultation...). Si cette distinction peut sembler évidente, elle est en fait assez récente. « Auparavant, la loi ne qualifiait de données de santé que les données relatives aux pathologies, comme par exemple le fait d’indiquer que Monsieur X est atteint de tel type de cancer », explique à franceinfo Guillaume Desgens-Pasanau, ancien directeur juridique de la Cnil, le gendarme français du respect des données personnelles.

    • La nouvelle législation demande en effet des précautions particulières aux entreprises ou administrations qui collectent ces données jugées sensibles. Ce qui est le cas de Doctolib. Comme l’indique le guide pratique (PDF) coédité par la Cnil et le Conseil national de l’Ordre des médecins à destination des professionnels de santé, le RGPD impose que les données issues de la prise de rendez-vous soient traitées de la même manière que les dossiers médicaux des patients.

      [...]

      Le fait que Doctolib soit considéré par la réglementation comme un prestataire des praticiens de santé qui font appel à ses services a de nombreuses conséquences. Outre le fait que le géant de la santé numérique ne communique pas à ses utilisateurs l’historique de ses rendez-vous médicaux, l’entreprise n’a sur le papier pas besoin d’obtenir votre consentement pour collecter vos données, tant que celles-ci sont utilisées pour la finalité recherchée, à savoir la prise de rendez-vous de santé.

      ...mais comme il s’agit d’une licorne ils peuvent s’arranger avec toutes les contraintes légales qui les empêcherait de faire des millions ? cf https://seenthis.net/messages/775587 ping @touti

      Voir aussi la plaquette de l’ordre des médecins avec les « bonnes pratiques » en matière de collecte, stockage et usage des données persos : https://www.conseil-national.medecin.fr/sites/default/files/external-package/edition/17ss6et/guide_cnom_cnil_rgpd.pdf

      #vie_privée #doctolib #big_data #santé #RGPD #CNIL

  • Linky : charge de la Cnil contre EDF et Engie
    https://www.linformaticien.com/actualites/id/53801/linky-charge-de-la-cnil-contre-edf-et-engie.aspx

    Le gendarme des données personnelles vient d’annoncer la mise en demeure d’EDF et d’Engie, en leur qualité de fournisseurs d’électricité exploitant les compteurs connectés Linky. La Cnil leur reproche un défaut de recueil du consentement éclairé et spécifique et des durées de conservation des données trop longues.
    […]
    Pas assez éclairé…
    A commencer par le consentement des usagers. Si EDF comme Engie demandent effectivement à leurs usagers s’ils acceptent la collecte de leurs données, ce consentement n’est ni spécifique, ni suffisamment éclairé. En effet, une seule case à cocher pour deux voire trois finalités distinctes : affichage des consommations quotidiennes, affichage des consommations à la demi-heure et fourniture de conseils personnalisés.

    Je suis très vénère !
    J’avais spécifiquement signalé ce point à la CNIL au printemps 2016, ainsi que l’absence totale d’information (d’éclairage…) sur les conséquences de la non acceptation : quelles données étaient transmises et à quel pas de temps.

    Elle ne m’a même pas accusé réception de mon message.

  • Les #outils_numériques de l’#humanitaire sont-ils compatibles avec le respect de la #vie_privée des #réfugiés ?

    Pour gérer les opérations humanitaires dans le camp de réfugiés syriens de #Zaatari en #Jordanie, les ONG ont mis en place des outils numériques, mais l’#innovation a un impact sur le personnel humanitaire comme sur les réfugiés. Travailler sur ce camp ouvert en 2012, où vivent 76 000 Syriens et travaillent 42 ONG, permet de s’interroger sur la célébration par le monde humanitaire de l’utilisation de #nouvelles_technologies pour venir en aide à des réfugiés.

    Après plusieurs années d’observation participative en tant que chargée d’évaluation pour une organisations non gouvernementales (ONG), je suis allée plusieurs fois à Amman et dans le camp de Zaatari, en Jordanie, entre 2017 et 2018, pour rencontrer des travailleurs humanitaires de 13 organisations différentes et agences de l’Onu et 10 familles vivant dans le camp, avec l’aide d’un interprète.

    Le camp de Zaatari a été ouvert dès 2012 par le Haut Commissariat aux Réfugiés pour répondre à la fuite des Syriens vers la Jordanie. Prévu comme une « #installation_temporaire », il peut accueillir jusqu’à 120 000 réfugiés. Les ONG et les agences des Nations Unies y distribuent de la nourriture et de l’eau potable, y procurent des soins et proposent un logement dans des caravanes.

    Pour faciliter la #gestion de cet espace de 5,2 km2 qui accueille 76 000 personnes, de très nombreux rapports, cartes et bases de données sont réalisés par les ONG. Les #données_géographiques, particulièrement, sont collectées avec des #smartphones et partagées via des cartes et des #tableaux_de_bord sur des #plateformes_en_ligne, soit internes au camp comme celle du Haut Commissariat des Nations unies pour les réfugiés (HCR), soit ouvertes à tous comme #Open_Street_Map. Ainsi, grâce à des images par satellite, on peut suivre les déplacements des abris des réfugiés dans le camp qui ont souvent lieu la nuit. Ces #mouvements modifient la #géographie_du_camp et la densité de population par zones, obligeant les humanitaires à modifier les services, tel l’apport en eau potable.

    Les réfugiés payent avec leur iris

    Ces outils font partie de ce que j’appelle « l’#humanitaire_numérique_innovant ». Le scan de l’#iris tient une place à part parmi ces outils car il s’intéresse à une partie du #corps du réfugié. Cette donnée biométrique est associée à la technologie de paiement en ligne appelée #blockchain et permet de régler ses achats au #supermarché installé dans le camp par une société jordanienne privée. Avant l’utilisation des #scanners à iris, les réfugiés recevaient une #carte_de_crédit qu’ils pouvaient utiliser dans divers magasins autour du camp, y compris dans des #échoppes appartenant à des réfugiés.

    Ils ne comprennent pas l’utilité pour eux d’avoir changé de système. Nour*, une réfugiée de 30 ans, trouvait que « la #carte_Visa était si facile » et craint de « devenir aveugle si [elle] continue à utiliser [son] iris. Cela prend tellement de temps : “ouvre les yeux”, “regarde à gauche”, etc. ». Payer avec son corps n’a rien d’anecdotique quand on est réfugié dans un camp et donc dépendant d’une assistance mensuelle dont on ne maîtrise pas les modalités. Nisrine, une autre réfugiée, préférait quand « n’importe qui pouvait aller au supermarché [pour quelqu’un d’autre]. Maintenant une [seule] personne doit y aller et c’est plus difficile ». Sans transport en commun dans le camp, se rendre au supermarché est une contrainte physique pour ces femmes.

    Le principal argument des ONG en faveur du développement du scan de l’iris est de réduire le risque de #fraude. Le #Programme_Alimentaire_Mondial (#Pam) contrôle pourtant le genre de denrées qui peuvent être achetées en autorisant ou non leur paiement avec la somme placée sur le compte des réfugiés. C’est le cas par exemple pour des aliments comme les chips, ou encore pour les protections hygiéniques. Pour ces biens-là, les réfugiés doivent compléter en liquide.

    Des interactions qui changent entre le personnel humanitaire et les réfugiés

    Les effets de ces #nouvelles_technologies se font aussi sentir dans les interactions entre le personnel du camp et les réfugiés. Chargés de collecter les #données, certains humanitaires doivent régulièrement interroger des jeunes hommes venant de zones rurales limitrophes (qui forment la majorité des réfugiés) sur leur hygiène ou leurs moyens de subsistance. Cela leur permet de créer des #indicateurs pour classer les réfugiés par catégories de #vulnérabilité et donc de #besoins. Ces interactions sont considérées par les réfugiés comme une intrusion dans leur espace de vie, à cause de la nature des questions posées, et sont pourtant devenues un des rares moments d’échanges entre ceux qui travaillent et vivent dans le camp.

    Le #classement des ménages et des individus doit se faire de manière objective pour savoir qui recevra quoi, mais les données collectées sont composites. Difficile pour les responsables de projets, directement interpellés par des réfugiés dans le camp, d’assumer les choix faits par des logiciels. C’est un exercice mathématique qui décide finalement de l’#allocation de l’aide et la majorité des responsables de programmes que j’ai interrogés ne connaissent pas son fonctionnement. Le processus de décision est retiré des mains du personnel humanitaire.

    Aucune évaluation de la #protection_des_données n’a été réalisée

    La vie privée de cette population qui a fui la guerre et trouvé refuge dans un camp est-elle bien protégée alors que toutes ces #données_personnelles sont récoltées ? Le journal en ligne The New Humanitarian rapportait en 2017 une importante fuite de données de bénéficiaires du Pam en Afrique de l’Ouest, détectée par une entreprise de protection de la donnée (https://www.thenewhumanitarian.org/investigations/2017/11/27/security-lapses-aid-agency-leave-beneficiary-data-risk). En Jordanie, les #données_biométriques de l’iris des réfugiés circulent entre une banque privée et l’entreprise jordanienne qui exploite le supermarché, mais aucune évaluation de la protection des données n’a été réalisée, ni avant ni depuis la mise en œuvre de cette #innovation_technologique. Si la protection des données à caractère personnel est en train de devenir un objet de légalisation dans l’Union européenne (en particulier avec le Règlement Général sur la Protection des Données), elle n’a pas encore été incluse dans le #droit_humanitaire.

    De la collecte de données sur les pratiques d’hygiène à l’utilisation de données biométriques pour la distribution de l’#aide_humanitaire, les outils numériques suivent en continu l’histoire des réfugiés. Non pas à travers des récits personnels, mais sur la base de données chiffrées qui, pense-t-on, ne sauraient mentir. Pour sensibiliser le public à la crise humanitaire, les équipes de communication des agences des Nations Unies et des ONG utilisent pourtant des histoires humaines et non des chiffres.

    Les réfugiés eux-mêmes reçoivent peu d’information, voire aucune, sur ce que deviennent leurs données personnelles, ni sur leurs droits en matière de protection de données privées. La connexion Internet leur est d’ailleurs refusée, de peur qu’ils communiquent avec des membres du groupe État Islamique… La gestion d’un camp aussi vaste que celui de Zaatari bénéficie peut-être de ces technologies, mais peut-on collecter les #traces_numériques des activités quotidiennes des réfugiés sans leur demander ce qu’ils en pensent et sans garantir la protection de leurs données personnelles ?

    http://icmigrations.fr/2020/01/16/defacto-015-01

    #camps_de_réfugiés #numérique #asile #migrations #camps #surveillance #contrôle #biométrie #privatisation

    ping @etraces @reka @karine4 @isskein

  • La société de cybersécurité Avast collecte et vend les données de navigation de ses clients, début d’explication avec le DG du groupe
    https://securite.developpez.com/actu/287032/La-societe-de-cybersecurite-Avast-collecte-et-vend-les-donnees-

    En relation :
    – pris la main dans le sac, le DG d’Avast tente les « excuses » pour désamorcer le mauvais coup à leur réputation : https://www.developpez.com/actu/292020/Avast-presente-ses-excuses-pour-la-vente-de-donnees-des-utilisateurs-de-
    – ...mais une enquête de Motherboard montre qu’il s’agit d’une stratégie commerciale totalement basée sur la divulgation d’infos personnelles : https://www.vice.com/en_us/article/qjdkq7/avast-antivirus-sells-user-browsing-data-investigation

    Avec un logiciel ne respectant pas l’Opt In (une installation par défaut donne toutes les options de partage des données cochées à « oui ») il y avait moyen de se douter d’une embrouille dans le genre...

    A priori pas de données envoyées si :
    – le navigateur Safe Browser n’a pas été installé
    – le plugin de navigateur Avast n’a pas été installé/activé
    – toutes les options de l’onglet « Général > Confidentialité et vie privée » des paramètres de configuration sont décochées.

    ...mais il semblerait plus prudent/avisé de passer à ClamAV comme antivirus :
    – téléchargement : https://www.clamav.net/downloads
    – documentation : https://www.clamav.net/documentation

    #antivirus #avast #vie_privée #clamav

  • Surveillance Giants - Amnesty International
    https://cloud.amnesty.de/s/z9koZ4rHZ8NPB5c#pdfviewer

    HOW THE BUSINESS MODEL OF GOOGLE AND FACEBOOK
    THREATENS HUMAN RIGHTS

    1. EXECUTIVE SUMMARY

    The internet has revolutionised our world on a scale not seen since the invention of electricity. Over half of the world’s population now relies on the web to read the news, message a loved one, find a job, or seek answers to an urgent question. It has opened social and economic opportunities at a scale and speed that few imagined fifty years ago.

    Recognising this shift, it is now firmly acknowledged that access to the internet is vital to enable the enjoyment of human rights. For more than 4 billion people, the internet has become central to how they communicate, learn, participate in the economy, and organise socially and politically. Yet when these billions participate in life online, most of them rely heavily on the services of just two corporations. Two companies control the primary channels that people rely on to engage with the internet. They provide services so integral that it is difficult to imagine the internet without them. Facebook is the world’s dominant social media company. If you combine users of its social platform, its messenger services, WhatsApp and Messenger, and applications such as Instagram, a third of humans on Earth use a Facebook-owned service every day. Facebook sets terms for much of human connection in the digital age.

    A second company, Google, occupies an even larger share of the online world. Search engines are a crucial source of information; Google accounts for around ninety percent of global search engine use. Its browser, Chrome, is the world’s dominant web browser. Its video platform, YouTube, is the world’s second largest search engine as well as the world’s largest video platform. Google’s mobile operating system, Android, underpins the vast majority of the world’s smartphones.

    Android’s dominance is particularly important because smartphones have replaced the desktop computer as the primary way people access and use the internet. Smartphones reveal information about us beyond our online browsing habits—such as our physical travel patterns and our location. They often contain thousands of intimate emails and text messages, photographs, contacts, and calendar entries. Google and Facebook have helped to connect the world and provided crucial services to billions. To participate meaningfully in today’s economy and society, and to realise their human rights, people rely on access to the internet—and the tools Google and Facebook offer.

    But despite the real value of the services they provide, Google and Facebook’s platforms come at a systemic cost. The companies’ surveillance-based business model forces people to make a Faustian bargain, whereby they are only able to enjoy their human rights online by submitting to a system predicated on human rights abuse. Firstly, an assault on the right to privacy on an unprecedented scale, and then a series of knock-on effects that pose a serious risk to a range of other rights, from freedom of expression and opinion, to freedom of thought and the right to non-discrimination.

    This isn’t the internet people signed up for. When Google and Facebook were first starting out two decades ago, both companies had radically different business models that did not depend on ubiquitous surveillance. The gradual erosion of privacy at the hands of Google and Facebook is a direct result of the companies establishing dominant market power and control over the global “public square”. In Chapter 1, ‘the Business of Surveillance’, this report sets out how the surveillance-based business model works: Google and Facebook offer services to billions of people without asking them to pay a financial fee. Instead, citizens pay for the services with their intimate personal data. After collecting this data, Google and Facebook use it to analyse people, aggregate them into groups, and to make predictions about their interests, characteristics, and ultimately behaviour - primarily so they can use these insights to generate advertising revenue.

    This surveillance machinery reaches well beyond the Google search bar or the Facebook platform itself. People are tracked across the web, through the apps on their phones, and in the physical world as well, as they go about their day-to-day affairs.

    These two companies collect extensive data on what we search; where we go; who we talk to; what we say; what we read; and, through the analysis made possible by computing advances, have the power to infer what our moods, ethnicities, sexual orientation, political opinions, and vulnerabilities may be. Some of these categories—including characteristics protected under human rights law—are made available to others for the purpose of targeting internet users with advertisements and other information. In Chapter 2, ‘Assault on Privacy’, we set out how this ubiquitous surveillance has undermined the very essence of the right to privacy. Not only does it represent an intrusion into billions of people’s private lives that can never be necessary or proportionate, but the companies have conditioned access to their services on “consenting” to processing and sharing of their personal data for marketing and advertising, directly countering the right to decide when and how our personal data can be shared with others. Finally, the companies’ use of algorithmic systems to create and infer detailed profiles on people interferes with our ability to shape our own identities within a private sphere.

    Advertisers were the original beneficiaries of these insights, but once created, the companies’ data vaults served as an irresistible temptation for governments as well. This is for a simple reason: Google and Facebook achieved a degree of data extraction from their billions of users that would have been intolerable had governments carried it out directly. Both companies have stood up to states’ efforts to obtain information on their users; nevertheless, the opportunity to access such data has created a powerful disincentive for governments to regulate corporate surveillance.

    The abuse of privacy that is core to Facebook and Google’s surveillance-based business model is starkly demonstrated by the companies’ long history of privacy scandals. Despite the companies’ assurances over their commitment to privacy, it is difficult not to see these numerous privacy infringements as part of the normal functioning of their business, rather than aberrations. In Chapter 3, ‘Data Analytics at Scale: Human Rights Risks Beyond Privacy’, we look at how Google and Facebook’s platforms rely not only on extracting vast amounts of people’s data, but on drawing further insight and information from that data using sophisticated algorithmic systems. These systems are designed to find the best way to achieve outcomes in the companies’ interests, including finely- tuned ad targeting and delivery, and behavioural nudges that keep people engaged on the platforms. As a result, people’s data, once aggregated, boomerangs back on them in a host of unforeseen ways. These algorithmic systems have been shown to have a range of knock-on effects that pose a serious threat to people’s rights, including freedom of expression and opinion, freedom of thought, and the right to equality and non-discrimination. These risks are greatly heightened by the size and reach of Google and Facebook’s platforms, enabling human rights harm at a population scale. Moreover, systems that rely on complex data analytics can be opaque even to computer scientists, let alone the billions of people whose data is being processed.

    The Cambridge Analytica scandal, in which data from 87 million people’s Facebook profiles were harvested and used to micro-target and manipulate people for political campaigning purposes, opened the world’s eyes to the capabilities such platforms possess to influence people at scale – and the risk that they could be abused by other actors. However, although shocking, the incident was the tip of the iceberg, stemming from the very same model of data extraction and analysis inherent to both Facebook and Google’s business.

    Finally, in Chapter 4, ‘Concentration of Power Obstructs Accountability’, we show how vast data reserves and powerful computational capabilities have made Google and Facebook two of the most valuable and powerful companies in the world today. Google’s market capitalization is more than twice the GDP of Ireland (both companies’ European headquarters); Facebook’s is larger by a third. The companies’ business model has helped concentrate their power, including financial clout, political influence, and the ability to shape the digital experience of billions of people, leading to an unprecedented asymmetry of knowledge between the companies and internet users – as scholar Shoshana Zuboff states “They know everything about us; we know almost nothing about them.” This concentrated power goes hand in hand with the human rights impacts of the business model and has created an accountability gap in which it is difficult for governments to hold the companies to account, or for individuals who are affected to access justice.

    Governments have an obligation to protect people from human rights abuses by corporations. But for the past two decades, technology companies have been largely left to self-regulate – in 2013, former Google CEO Eric Schmidt described the online world as “the world’s largest ungoverned space”. However, regulators and national authorities across various jurisdictions have begun to take a more confrontational approach to the concentrated power of Google and Facebook—investigating the companies for competition violations, issuing fines for infringing Europe’s General Data Protection Regulation (GDPR), or introducing new tax regimes for big technology companies.

    Businesses have a responsibility to respect human rights in the context of their business operations that requires them to carry out “human rights due diligence” to identify and address their human rights impacts. Google and Facebook have established policies and processes to address their impacts on privacy and freedom of expression – but evidently, given that their surveillance-based business model undermines the very essence of the right to privacy and poses a serious risk to a range of other rights, the companies are not taking a holistic approach, nor are they questioning whether their current business models themselves can be compliant with their responsibility to respect human rights. Amnesty International gave both Google and Facebook an opportunity to respond to the findings of this report in advance of publication. Facebook’s letter in response is appended in the annex below. Amnesty International had a conversation with senior Google staff, who subsequently provided information around its relevant policies and practices. Both responses are incorporated throughout the report.

    Ultimately, it is now evident that the era of self-regulation in the tech sector is coming to an end: further state-based regulation will be necessary, but it is vital that whatever form future regulation of the technology sector takes, governments follow a human rights-based approach. In the short-term, there is an immediate need for stronger enforcement of existing regulation. Governments must take positive steps to reduce the harms of the surveillance-based business model—to adopt digital public policies that have the objective of universal access and enjoyment of human rights at their core, to reduce or eliminate pervasive private surveillance, and to enact reforms, including structural ones, sufficient to restore confidence and trust in the internet.

    Index: POL 30/1404/2019, Original language: English

    #surveillance #GAFAM #internet #politique #vie_privée #1984

  • Snowden, Constant et le sens de la liberté à l’heure du désastre | Terrestres
    https://www.terrestres.org/2019/12/20/snowden-constant-et-le-sens-de-la-liberte-a-lheure-du-desastre

    Aurélien Berlan

    Les géants du numériques ont aboli la « vie privée », face visible de la liberté des Modernes. C’est au contraire à l’autre versant de cette conception de la liberté qu’il faudrait renoncer : être délivrés des nécessités de la vie, rendue possible par l’instauration de dispositifs lointains et aliénants. Il s’agit alors de reconquérir la liberté de subvenir à nos vies.

    A propos d’Edward Snowden, Mémoires vives, Seuil, Paris, 2019.

    Les appels à décréter « l’état d’urgence écologique » qui foisonnent aujourd’hui à l’adresse des Etats sont le dernier avatar d’une idée qui hante une partie du mouvement écologiste depuis longtemps. Compte tenu des liens historiques entre la dynamique des sociétés industrielles et la conception occidentale moderne de la liberté, enrayer l’aggravation des nuisances et la multiplication des catastrophes que ces sociétés provoquent supposerait d’engager une politique étatique volontariste, voire dirigiste, supposant de restreindre les libertés, que ce soit sous la forme d’un renouveau républicain ou d’une dictature verte1. Entre la nature et la liberté, il faudrait choisir – et vu le degré de dégradation environnementale déjà atteint, manifeste dans la brutalité de l’effondrement en cours du vivant, on n’aurait en réalité pas le choix.

    Sur les terrains de lutte ayant une dimension écologiste, là où des gens se mettent en danger pour empêcher tel ou tel projet désastreux de se réaliser, qu’il s’agisse d’un méga-transformateur électrique pour exporter de l’énergie prétendument verte (comme en Aveyron où l’Amassada vient d’être expulsée manu militari), d’une mine de lignite (à Hambach en Allemagne où l’intervention de la police a provoqué un mort) ou d’une poubelle nucléaire (à Bure où les militants font l’objet d’une répression judiciaire acharnée), c’est un autre son de cloche que l’on entend en général. Les militant-es ne se battent pas pour que les prérogatives de l’Etat soient encore renforcées après deux décennies de lois « antiterroristes » (utilisées contre la contestation écologiste lors de la COP 21) et cinquante ans de politiques « sécuritaires », mais pour reconquérir une liberté que le capitalisme industriel, avec la complicité des Etats, nous a selon eux ravie.

    Dans les deux cas, il ne s’agit bien sûr pas de la même liberté – notion dont on sait à quel point elle est polysémique. Dans le premier discours, c’est la conception (néo)libérale de la liberté qui est en ligne de mire, c’est-à-dire la liberté d’échanger et de faire des affaires sans entraves (« laisser faire, laisser passer »), sur les deux plans individuel (« je fais ce que je veux ») et entrepreneurial (« dérégulation des marchés ») – et l’on retombe dans les vieilles ornières du débat opposant les libéraux aux interventionnistes, qu’ils se disent socialistes, républicains ou écologistes. Dans le second discours, c’est une autre idée de la liberté qui est en jeu, que les militant-es désignent en général par la notion d’autonomie en un sens qui ne se réduit pas au fait de « se donner ses propres lois » (l’autonomie politique, au sens étymologique), mais implique aussi de pourvoir à ses propres besoins – c’est de cela dont il est question quand on parle d’autonomie matérielle en général, et en particulier d’autonomie énergétique, alimentaire, médicinale, etc.❞

    • Excellent article !

      Car le désir d’autonomie qui anime une partie du mouvement écologiste, et bien au-delà, invite à lire l’histoire autrement, à penser que si une conception de la liberté a triomphé, c’est l’aspiration à la délivrance – vieux rêve dont le transhumanisme incarne aujourd’hui la radicalisation high-tech : en promettant le dépassement de la mort et en faisant miroiter la colonisation de Mars aux riches qui s’inquiètent tout de même de leurs chances de survie sur la Terre dévastée, cette idéologie réactualise le fantasme d’être délivré des aspects négatifs de la condition terrestre. Or, ce fantasme s’est historiquement imposé contre les aspirations à l’autonomie des classes populaires qui, pendant des siècles, ne se sont pas battues pour être déchargées des nécessités de la vie, mais pour avoir libre accès aux moyens de subsistance, en premier lieu la terre, permettant de prendre en charge ces nécessités.

      […]

      En réalité, les révélations de Snowden n’en étaient que pour celles et ceux qui ne s’étaient jamais interrogés sur les tenants et aboutissants de l’informatisation de leurs activités, ou qui ne le voulaient pas. Pour les autres, elles ne faisaient qu’administrer les preuves irréfutables de ce qu’ils avaient déjà dénoncé, dans l’indifférence générale. Le rappeler, ce n’est pas amoindrir le mérite de Snowden, mais mettre en évidence sa véritable contribution au débat, absolument décisive : avoir permis de démasquer les béni-oui-oui de la High-tech, qui taxent toute critique de « conspirationniste » ou de « technophobe ». Grâce à Snowden, on sait désormais que les discours rassurants sur la révolution numérique sont le fait, au mieux de grands naïfs se voilant la face, au pire de marchands de sable cyniques que l’informatisation du monde renforce et enrichit.

      […]

      Si la sacralisation de la vie privée avait gardé de sa force, on aurait pu s’attendre – c’est ce qu’espérait Snowden – à ce que ses révélations provoquent une levée de boucliers de ce type. Il n’en fut rien. En France, la plupart des gens qui se disaient choqués n’envisageaient pas pour autant de modifier leurs pratiques de communication, comme s’il n’y avait rien d’essentiel à défendre ici, et donc aucune raison de se mobiliser ou de changer ses habitudes électroniques. Ce que l’affaire Snowden a révélé fut pour lui une cruelle désillusion : la liberté pour laquelle il avait pris tant de risques ne faisait plus vibrer grand monde11. Est-ce à dire que la liberté ne nous importe plus ? Ce n’est pas ce que suggère le matraquage idéologique persistant à vendre n’importe quelle réforme et n’importe quelle innovation dans l’emballage de la « liberté ». En réalité, l’indifférence suscitée par Snowden tient au fait que nous nous sentons toujours aussi « libres » qu’avant, comme si la violation de la vie privée n’affectait plus notre liberté. Mais alors, n’est-ce pas le mot liberté qui aurait changé de sens ? Si la véritable révélation de Snowden concerne la dissolution de la liberté des Modernes dans les réseaux de fibre optique, alors nous serions, comme Constant en son temps, à un tournant dans l’histoire du mot liberté, qu’il nous faudrait interroger à nouveau. Où en est-on dans l’histoire du sens de la liberté ?

      […]

      Nous pouvons dès lors reformuler le problème posé par Snowden. Si nous nous sentons toujours libres aujourd’hui, ce n’est peut-être pas que le sens de la liberté aurait fondamentalement changé, mais plus simplement que l’inviolabilité de la sphère privée n’était pas la seule chose qui faisait la valeur de la liberté aux yeux des Modernes, ou la chose principale qui faisait qu’ils se sentaient libres. Mais alors, quelle qualité constituait le cœur de la liberté bourgeoise ?

      […]

      Ce que signe l’affaire Snowden n’est donc pas tant la fin de la liberté des Modernes que celle de l’interprétation libérale qui la définissait par l’inviolabilité de la vie privée. En réalité, ce critère constitutionnel, effectivement bafoué aujourd’hui, masque le fait que les Modernes aspirent d’abord à autre chose, à la délivrance à l’égard des nécessités politiques et matérielles de la vie sur terre. C’est justement ce que suggère l’indifférence suscitée par les révélations de Snowden. C’est aussi ce que confirme une lecture attentive de Constant. Et c’est également ce qu’une histoire de la liberté moderne montrerait. Car face à la conception libérale de la liberté comme délivrance à l’égard des soucis matériels et politiques, le socialisme a souvent, dans ses tendances marxistes dominantes, surenchérit sur ce désir de délivrance en rêvant de surmonter le « règne de la nécessité » par le productivisme industriel et de dépasser la conflictualité sociale dans « l’administration des choses25 ».

      #Aurélien_Berlan #philosophie #liberté #libéralisme #démocratie #politique #capitalisme #anti-industriel #subsistance #autonomie #Edward_Snowden #Benjamin_Constant #vie_privée #privacy #Modernité #transhumanisme @antonin1

    • C’est un très beau texte, et bien écrit. Berlan reprend l’alternative de Constant sur les deux libertés, montre que la liberté individuelle ne peut exister sans liberté politique, collective, et qu’on nous vend la première, censée compenser la perte de la seconde, dans un contexte où celle-ci ne peut pas s’exercer. Et il étend la notion classique de liberté politique en liberté d’assurer et de contrôler ses conditions de vie matérielle, sa subsistance. Au final, c’est comme ça que je l’entends, nous avons accepté le « ou bien oui bien » de cette fausse alternative en prenant la seconde, dénuée de son sens et protégée par de bien maigres garde-fous et déclarations d’intention, parce qu’elle nous libère des nécessités de la vie en nous fourguant des biens et services bien « pratiques » (bagnole, télécom, bouffe produite par des spécialistes, objets à deux balles mais en nombre, la #poubelle_industrielle avec ses nuisances écologiques qu’on feindra de déplorer).

      Ce faisant, on comprendra pourquoi nous nous sentons toujours aussi « libres », en dépit des révélations de Snowden : parce que le système étatico-industriel, si liberticide soit-il, nous délivre toujours plus des limites et des contraintes liées à la vie humaine sur terre.

      Mais depuis, il est devenu clair que la liberté effective ne dépend pas seulement des droits fondamentaux et de l’agencement des institutions, mais aussi de conditions sociales et matérielles. Si l’on dépend d’une instance supérieure pour assurer ses besoins, on se retrouve « à sa merci » et donc potentiellement en situation d’impuissance et d’oppression

      Et si la quête de délivrance à l’égard des nécessités de la vie sur terre, le désir d’un allègement de nos conditions de vie jusqu’à l’apesanteur, jusqu’à l’idée de quitter la terre pour mener une vie extra-terrestre, a fait le lit du capitalisme industriel et du saccage de la planète, il faut rompre avec cet imaginaire et revaloriser l’autonomie comme une manière de revenir sur terre, de revenir à une vision terrestre de la liberté, compatible avec la préservation de nos conditions de vie sur notre planète fragile. En tout cas, c’est une perspective plus enthousiasmante que celle d’un état d’urgence écologique qui conduirait à une restriction draconienne du peu de libertés qui nous reste.

      Merci @rastapopoulos pour l’appel !

  • #Belgique : Presque tous les sites internet s’exposent à des amendes au sujet des cookies Belga - 30 Décembre 2019
    https://www.rtbf.be/info/medias/detail_presque-tous-les-sites-internet-s-exposent-a-des-amendes-au-sujet-des-co

    Pour la première fois, un site internet a été condamné pour sa politique en matière de cookie, un témoin de connexion. L’Autorité de protection des données Jubel.be, un site internet spécialisé dans l’information juridique, est le premier en Belgique à avoir été condamné pour sa politique en matière de cookies. Le règlement européen général sur la protection des données (RGPD) prévoit que les utilisateurs donnent leur consentement d’un clic pour l’utilisation non nécessaire de cookies, et que la politique en la matière soit transparente. Jubel.be a échoué dans les deux cas, a tranché l’APD.
    L’APD a décidé d’infliger une amende au site en question à hauteur de 15.000 euros. Le site internet estime que cette somme est un sacrifice en regard de son chiffre d’affaires « négligeable ».

    Si l’autorité se montre aussi ferme envers d’autres sites internet, nombreux sont ceux qui peuvent craindre une amende, selon l’avocat spécialisé dans le règlement en question, Olivier Sustronck. « La grande majorité des sites internet belges ne respectent pas » les règles de l’autorité sur les cookies, estime-t-il.
    (APD) est si stricte que tous les sites peuvent être concernés par une sanction, rapporte De Standaard lundi.

    Jubel.be, https://www.jubel.be/fr un site internet spécialisé dans l’information juridique, est le premier en Belgique à avoir été condamné pour sa politique en matière de cookies. Le règlement européen général sur la protection des données https://www.rtbf.be/info/monde/detail_protection-des-donnees-le-rgpd-un-standard-europeen-a-effet-mondial?id=9 (RGPD) prévoit que les utilisateurs donnent leur consentement d’un clic pour l’utilisation non nécessaire de cookies, et que la politique en la matière soit transparente. Jubel.be a échoué dans les deux cas, a tranché l’APD.

    L’APD a décidé d’infliger une amende au site en question à hauteur de 15.000 euros. Le site internet estime que cette somme est un sacrifice en regard de son chiffre d’affaires « négligeable ».

    Si l’autorité se montre aussi ferme envers d’autres sites internet, nombreux sont ceux qui peuvent craindre une amende, selon l’avocat spécialisé dans le règlement en question, Olivier Sustronck. « La grande majorité des sites internet belges ne respectent pas » les règles de l’autorité sur les cookies, estime-t-il.

    #RGPD #Internet #cookie #flicage #publicité #surveillance #profiling #tracking #web #privacy #marketing #vie_privée #données #algorithme @etraces

  • pyllyukko/user.js: user.js — Firefox configuration hardening
    https://github.com/pyllyukko/user.js

    A user.js configuration file for Mozilla Firefox designed to harden browser settings and make it more secure.

    Main goals:
    – Limit the possibilities to track the user through web analytics.
    – Harden the browser against known data disclosure or code execution vulnerabilities.
    – Limit the browser from storing anything even remotely sensitive persistently.
    – Make sure the browser doesn’t reveal too much information to shoulder surfers.
    – Harden the browser’s encryption (cipher suites, protocols, trusted CAs).
    – Limit possibilities to uniquely identify the browser/device using browser fingerprinting.
    – Hopefully limit the attack surface by disabling various features.
    – Still be usable in daily use.

    #firefox #sécurité #tracking #vie_privée #user.js

  • Opinion | Twelve Million Phones, One Dataset, Zero Privacy - The New York Times
    https://www.nytimes.com/interactive/2019/12/19/opinion/location-tracking-cell-phone.html

    very minute of every day, everywhere on the planet, dozens of companies — largely unregulated, little scrutinized — are logging the movements of tens of millions of people with mobile phones and storing the information in gigantic data files. The Times Privacy Project obtained one such file, by far the largest and most sensitive ever to be reviewed by journalists. It holds more than 50 billion location pings from the phones of more than 12 million Americans as they moved through several major cities, including Washington, New York, San Francisco and Los Angeles.

    Each piece of information in this file represents the precise location of a single smartphone over a period of several months in 2016 and 2017. The data was provided to Times Opinion by sources who asked to remain anonymous because they were not authorized to share it and could face severe penalties for doing so. The sources of the information said they had grown alarmed about how it might be abused and urgently wanted to inform the public and lawmakers.

    If you lived in one of the cities the dataset covers and use apps that share your location — anything from weather apps to local news apps to coupon savers — you could be in there, too.

    If you could see the full trove, you might never use your phone the same way again.

    The Times and other news organizations have reported on smartphone tracking in the past. But never with a data set so large. Even still, this file represents just a small slice of what’s collected and sold every day by the location tracking industry — surveillance so omnipresent in our digital lives that it now seems impossible for anyone to avoid.

    It doesn’t take much imagination to conjure the powers such always-on surveillance can provide an authoritarian regime like China’s. Within America’s own representative democracy, citizens would surely rise up in outrage if the government attempted to mandate that every person above the age of 12 carry a tracking device that revealed their location 24 hours a day. Yet, in the decade since Apple’s App Store was created, Americans have, app by app, consented to just such a system run by private companies.

    Today, it’s perfectly legal to collect and sell all this information. In the United States, as in most of the world, no federal law limits what has become a vast and lucrative trade in human tracking.

    he companies that collect all this information on your movements justify their business on the basis of three claims: People consent to be tracked, the data is anonymous and the data is secure.

    None of those claims hold up, based on the file we’ve obtained and our review of company practices.

    Yes, the location data contains billions of data points with no identifiable information like names or email addresses. But it’s child’s play to connect real names to the dots that appear on the maps.

    n most cases, ascertaining a home location and an office location was enough to identify a person. Consider your daily commute: Would any other smartphone travel directly between your house and your office every day?

    Describing location data as anonymous is “a completely false claim” that has been debunked in multiple studies, Paul Ohm, a law professor and privacy researcher at the Georgetown University Law Center, told us. “Really precise, longitudinal geolocation information is absolutely impossible to anonymize.”

    “D.N.A.,” he added, “is probably the only thing that’s harder to anonymize than precise geolocation information.”

    Yet companies continue to claim that the data are anonymous. In marketing materials and at trade conferences, anonymity is a major selling point — key to allaying concerns over such invasive monitoring.

    The data set is large enough that it surely points to scandal and crime but our purpose wasn’t to dig up dirt. We wanted to document the risk of underregulated surveillance.

    Watching dots move across a map sometimes revealed hints of faltering marriages, evidence of drug addiction, records of visits to psychological facilities.

    Connecting a sanitized ping to an actual human in time and place could feel like reading someone else’s diary.

    Like many people we identified in the data, Ms. Millben said she was careful about limiting how she shared her location. Yet like many of them, she also couldn’t name the app that might have collected it. Our privacy is only as secure as the least secure app on our device.

    The inauguration weekend yielded a trove of personal stories and experiences: elite attendees at presidential ceremonies, religious observers at church services, supporters assembling across the National Mall — all surveilled and recorded permanently in rigorous detail.

    Protesters were tracked just as rigorously. After the pings of Trump supporters, basking in victory, vanished from the National Mall on Friday evening, they were replaced hours later by those of participants in the Women’s March, as a crowd of nearly half a million descended on the capital. Examining just a photo from the event, you might be hard-pressed to tie a face to a name. But in our data, pings at the protest connected to clear trails through the data, documenting the lives of protesters in the months before and after the protest, including where they lived and worked.

    Inauguration Day weekend was marked by other protests — and riots. Hundreds of protesters, some in black hoods and masks, gathered north of the National Mall that Friday, eventually setting fire to a limousine near Franklin Square. The data documented those rioters, too. Filtering the data to that precise time and location led us to the doorsteps of some who were there. Police were present as well, many with faces obscured by riot gear. The data led us to the homes of at least two police officers who had been at the scene.

    As revealing as our searches of Washington were, we were relying on just one slice of data, sourced from one company, focused on one city, covering less than one year. Location data companies collect orders of magnitude more information every day than the totality of what Times Opinion received.

    The companies are required to disclose very little about their data collection. By law, companies need only describe their practices in their privacy policies, which tend to be dense legal documents that few people read and even fewer can truly understand.

    We’re constantly shedding data, for example, by surfing the internet or making credit card purchases. But location data is different. Our precise locations are used fleetingly in the moment for a targeted ad or notification, but then repurposed indefinitely for much more profitable ends, like tying your purchases to billboard ads you drove past on the freeway. Many apps that use your location, like weather services, work perfectly well without your precise location — but collecting your location feeds a lucrative secondary business of analyzing, licensing and transferring that information to third parties.

    For many Americans, the only real risk they face from having their information exposed would be embarrassment or inconvenience. But for others, like survivors of abuse, the risks could be substantial. And who can say what practices or relationships any given individual might want to keep private, to withhold from friends, family, employers or the government? We found hundreds of pings in mosques and churches, abortion clinics, queer spaces and other sensitive areas.

    Large data companies like Foursquare — perhaps the most familiar name in the location data business — say they don’t sell detailed location data like the kind reviewed for this story but rather use it to inform analysis, such as measuring whether you entered a store after seeing an ad on your mobile phone.

    But a number of companies do sell the detailed data. Buyers are typically data brokers and advertising companies. But some of them have little to do with consumer advertising, including financial institutions, geospatial analysis companies and real estate investment firms that can process and analyze such large quantities of information. They might pay more than $1 million for a tranche of data, according to a former location data company employee who agreed to speak anonymously.

    f this information is so sensitive, why is it collected in the first place?

    For brands, following someone’s precise movements is key to understanding the “customer journey” — every step of the process from seeing an ad to buying a product. It’s the Holy Grail of advertising, one marketer said, the complete picture that connects all of our interests and online activity with our real-world actions.

    For individual consumers, the value of constant tracking is less tangible. And the lack of transparency from the advertising and tech industries raises still more concerns.

    Does a coupon app need to sell second-by-second location data to other companies to be profitable? Does that really justify allowing companies to track millions and potentially expose our private lives?

    Data companies say users consent to tracking when they agree to share their location. But those consent screens rarely make clear how the data is being packaged and sold. If companies were clearer about what they were doing with the data, would anyone agree to share it?

    #Surveillance #Géolocation #Vie_privée #Démocratie

  • Collecte de données et déclin de la vie privée [Wiki informatique de Médéric]
    https://wiki.ordi49.fr/doku.php/savoir:collecte_de_donnees_et_declin_de_la_vie_privee

    Cette page est une veille technologique pour sensibiliser au phénomène de collecte massive de données personnelles (data mining) et au déclin de la vie privée lié à un certain usage des technologies de l’information et de la communication

    Ressources commentées et organisées par thèmes (en français, ~depuis 2012). Compilation très complète.

    #vie_privée #collecte_des_données #compilation_web #data-mining

  • Balancing Data Utility and Confidentiality in the 2020 US Census | Data & Society
    https://datasociety.net/output/balancing-data-utility-and-confidentiality-in-the-2020-us-census

    Par danah boyd

    In the age of commercial data and advanced computer science, the US Census Bureau is implementing a new technical system to ensure the confidentiality of individual data in the 2020 census. This system is based on a mathematical technique known as “differential privacy.” A new living document by Data & Society Founder and President danah boyd, Balancing Data Utility and Confidentiality in the 2020 US Census, explains how differential privacy works in the context of the US Census and illuminates key conversations, misunderstandings, and anxieties surrounding this disclosure avoidance system.

    Differential privacy allows the Census Bureau to mathematically balance between privacy and data utility. By examining how much risk there is of reconstructing identifying information from a particular census statistical table, the Census Bureau can ensure a certain degree of confidentiality by inserting noise in strategic places. Previous disclosure avoidance systems could not withstand the risks brought on by the increase in commercial data from data-centric technologies.

    Every 10 years, the Census Bureau conducts the census, and the resulting data and statistical tables support the appointment of the House of Representatives, the allocation of federal tax dollars, and the redistricting within each state, as well as social science research and local policy making. Since this data plays such a vital role in our democracy, used by government, academia, and civil society among others, it is important that people trust the data. As the paper explains, the introduction of differential privacy has surfaced a range of anxieties about how the data products will be produced for 2020.

    With useful insights for academics, civil society, data users, and anyone concerned about their privacy in the 2020 census, boyd uses this living document to clarify the motivations, risks, and unknowns surrounding differential privacy. She calls for communication, collaboration, and understanding between all parties tackling the trade-offs between confidentiality and accuracy.

    Key messages:

    Trust of census data is vital to “democracy, resource allocation, justice, and research.”
    Differential privacy is a mathematical definition of privacy. The Census Bureau’s disclosure avoidance system for 2020 is based on differential privacy and creates the opportunity to balance between the utility of the data and the risk to confidentiality.
    New advanced computing technologies and commercial data collection have made it easier to reidentify individuals from census statistical tables, creating a need for a new type of privacy security.
    Data users and the Census Bureau’s disclosure avoidance team have struggled to communicate with each other and find common ground for balancing the need for accurate data with the need for privacy.
    Protecting confidentiality is essential for counting hard-to-reach populations.

    #danah_boyd #Recensement #Vie_privée #Modélisation

  • En images : les designs d’un nouveau wagon-couchettes russe rendus publics - Russia Beyond FR

    https://fr.rbth.com/lifestyle/83922-russie-nouveau-wagon-couchettes

    Pas mal...

    La Compagnie fédérale des passagers, filiale des Chemins de fer de Russie (RZD), a dévoilé plusieurs idées d’intérieurs pour ses futurs platzkart, ces célèbres wagons-couchettes russes.

    #transport #train #russie

  • #Suisse : La NSA espionne-t-elle le monde depuis le Valais ?
    https://www.rts.ch/info/suisse/10824153-la-nsa-espionne-t-elle-le-monde-depuis-le-valais-.html

    A Loèche se côtoient 10 antennes du système d’écoute du Département fédéral de la défense (DDPS) et 25 antennes de la société Signalhorn, dont certains clients sont proches de l’agence américaine du renseignement (NSA). Comment est-ce possible et quels sont les risques ? Le 2e épisode de la web-série « La Suisse sous couverture » tente d’y répondre.

    Depuis 1974, les PTT (devenus Swisscom) et la Confédération gèrent un parc d’antennes paraboliques à Loèche, un site considéré comme le cœur du système de renseignement suisse. En l’an 2000, ils créent la surprise en cédant une grande partie des paraboles à l’entreprise américaine Verestar, qui a des liens indirects avec la NSA. Depuis, plusieurs entreprises ont défilé à Loèche, mais elles ont toujours compté parmi leurs clients des sociétés susceptibles d’entretenir des rapports avec les services de renseignements américains.

    Du côté de la Berne fédérale, on assure que tout va bien. En 2001, le Conseil fédéral exprime sa confiance à l’exploitant Verestar. En 2012, le Département fédéral de la défense (DDPS) prend le relais, et affirme, à propos du nouvel exploitant, Signalhorn, que l’indépendance est assurée. L’armée et l’entreprise ne partagent que les charges d’eau et d’électricité.

    RTSinfo diffuse cette semaine la web-série « La Suisse sous couverture », consacrée aux liens entre la Confédération et le renseignement international. Replongez dans cette affaire d’antennes valaisannes en regardant le deuxième épisode « Les grandes oreilles de la Confédération » (ci-dessus) avec son complément d’informations (ci-dessous). #Radio #vidéo
    . . . . . . . .
    A la suite de l’interpellation du conseiller national Bernhard Hess (Démocrates Suisses/BE), le Conseil fédéral indique que Verestar exploite « des réseaux de satellites d’envergure internationale, soit 170 antennes ainsi qu’une cinquantaine de satellites » mais que l’entreprise « n’a jamais compté la NSA au nombre de ses clients ». Pourtant, Verestar possède la Maritime Telecommunications Network (MTN), qui compte parmi ses clients... l’US Navy. Le Conseil fédéral l’admet : « MTN travaille pour le compte de la Defense Information System Agency et du Space and Naval Warfare System Center, tous deux rattachés au Département de la défense, et susceptibles de ce fait d’entretenir des rapports avec les services de renseignements américains ».
    . . . . . . . . .
    2013 - les révélations d’Edward Snowden
    Ex-chargé de sécurité informatique à la CIA et administrateur système pour la NSA, Edward Snowden dévoile à différents médias des documents top-secrets de la NSA. La surveillance massive des communications et d’internet par Washington et Londres apparaît au grand jour. Swisscom, détenue à 51% par la Confédération, figure en rouge dans le programme « Treasure Map », une carte en temps réel du Web global. Les noeuds rouges représentent les réseaux d’entreprise où la NSA peut observer les données qui y circulent. Les flèches bleues illustrent les principaux chemins empruntés par les communications internet et mobiles. Est-ce que Swisscom a donné son consentement à un logiciel d’espionnage ?

    #nsa #surveillance #snowden #prism #internet #vie_privée #espionnage #privacy #edward_snowden #écoutes #usa #contrôle #etats-unis #Angleterre #Swisscom #Verestar #MTN #us_navy #DDPS #Loèche #ATC_Teleports #Onyx #Luxembourg

  • Most Americans think they’re being constantly tracked—and that there’s nothing they can do - MIT Technology Review
    https://www.technologyreview.com/f/614720/privacy-pew-research-data-collection-big-tech-facebook-google-appl

    ... it’s true that the average consumer can’t do a lot about personal data being collected, and it’ll be a while before that really changes.

    #surveillance #vie_privée #etats-unis

  • Datenschutzkonferenz: Hohe Hürden für den Einsatz von Windows 10 | heise online
    https://www.heise.de/newsticker/meldung/Datenschutzkonferenz-Hohe-Huerden-fuer-den-Einsatz-von-Windows-10-4584678.html

    En Allemagnee la législation en vigeur le rend pratiquement impossible d’utiliser Microsoft Windows 10 d’une manière légale. Les responsables pour la protection des données auprès des gouvernements des Länder viennent d’adopter cette position et la soutiennent dans un papier intutulé Datenschutz bei Windows 10 – Prüfschema .

    Voici le lien vers le texte : https://tlfdi.de/mam/tlfdi/gesetze/orientierungshilfen/beschluss_zu_top_13_win10_prufschema.pdf

    12.11.2019 von Stefan Krempl

    Die Aufsichtsbehörden haben ein Prüfschema für das Microsoft-Betriebssystem veröffentlicht. Nur bei einem tragbaren Restrisiko kann dieses verwendet werden.

    Die Datenschutzbeauftragten von Bund und Ländern sehen wenig Spielraum, Microsofts Betriebssystem Windows 10 rechtskonform zu nutzen. „Es ist zunächst Aufgabe des Verantwortlichen sicherzustellen und zu dokumentieren, dass die datenschutzrechtlichen Anforderungen beim Einsatz von Windows 10 jederzeit eingehalten werden“, schreiben sie in einem jetzt veröffentlichten Prüfschema. Dabei gelte es darauf zu achten, ob und gegebenenfalls „welche personenbezogenen Daten an Microsoft übermittelt werden“ und ob für diese Transfers eine Rechtsgrundlage vorliege.

    Praktisch ist dies aber eine kaum zu leistende Aufgabe, räumt die Datenschutzkonferenz (DSK) in dem Papier ein. Verschiedene Untersuchungen zeigten, dass es aktuell nicht möglich sei, die Übertragung insbesondere von Telemetrie-Daten „durch Konfiguration von Windows10 vollständig zu unterbinden“. Da die Transfers verschlüsselt erfolgten, „liegen keine detaillierten Erkenntnisse über die Natur der übertragenen Daten von einer unabhängigen Stelle vor“. Es müssten daher „technische Maßnahmen zur Verhinderung einer unbefugten Übermittlung zum Einsatz kommen“.
    Mit jedem Update erneute Prüfung?

    Zudem sei „wegen des fortlaufenden Veränderns und Hinzufügens von Funktionalität“ durch Microsoft ebenso fortlaufend zu überwachen, „ob anlässlich eines Updates eine erneute Prüfung durchgeführt werden muss“. Prinzipiell sei etwa laut der DSGVO der Grundsatz der Datenminimierung zu beachten. Stellt sich ein Transfer als unzulässig heraus, habe dieser „zu unterbleiben“, was „mit geeigneten und angemessenen Maßnahmen“ sichergestellt werden müsse. Daneben sei zu beachten, dass Microsoft Daten in die USA schicke und damit in „ein Drittland“ außerhalb der EU. Die DSK weist darauf hin, dass gegen die Rechtmäßigkeit des für diese Übertragungen genutzten Privacy Shields Bedenken bestünden und Klagen liefen.

    Das Resümee der Kontrolleure: Nur wenn „das Restrisiko“ durch die Implementierung der skizzierten Maßnahmen „tragbar ist“, könnten das Betriebssystem beziehungsweise bestimmte Funktionen davon zum Einsatz kommen. Generell lasse sich die Frage, ob Windows 10 datenschutzkonform ist, angesichts der Vielfalt der Editionen, Versionen, Funktionalitäten und vorgenommener Konfigurationen nicht beantworten. Jeder Anwender müsse seine Installation selbst prüfen. Sollten dabei etwa auch Beschäftigtendaten verarbeitet werden, müssten zusätzlich besondere Rechtsvorschriften beachtet werden.
    Kennzeichen-Scanning gerügt

    Die DSK rügt zudem die „exzessive Nutzung“ von Systemen zum Kfz-Kennzeichen-Scanning durch Strafverfolger als „Verstoß gegen das Grundgesetz“. Damit werde auch das Recht auf informationelle Selbstbestimmung der Bürger verletzt. Die Aufseher fordern die Polizeibehörden und Staatsanwaltschaften auf, „die umfassende und unterschiedslose Erfassung, Speicherung und Auswertung von Kraftfahrzeugen“ zu unterlassen und die rechtswidrig gespeicherten Daten zu löschen. In weiteren Entschließungen sprechen sich die Beauftragten etwa gegen eine Weitergabe sensibler Daten an unbefugte Dritte durch Gesundheits-Apps aus und geben Hinweise zum Einsatz von KI-Systemen in Betrieben und von Messengern im Krankenhausbereich.

    Titel: Datenschutz bei Windows 10 – Prüfschema – Version 1.0
    Herausgeber: Konferenz der unabhängigen Datenschutzbehörden des Bundes und der Länder
    Edition und Redaktion: AK Technik der Konferenz der unabhängigen Datenschutzbehörden des Bundes und der Länder
    Ansprechpartner/Autoren: Rasmus Robrahn, Dr. Martin Krämer, Dr. Christoph Lahmann und Uwe Robra (Die Landesbeauftragte für den Datenschutz Niedersachsen)

    #Allemagne #droit #sécurité #vie_privée #protection_des_données

  • EXCLUSIVE: This Is How the U.S. Military’s Massive Facial Recognition System Works
    https://onezero.medium.com/exclusive-this-is-how-the-u-s-militarys-massive-facial-recognition-s

    Over the last 15 years, the United States military has developed a new addition to its arsenal. The weapon is deployed around the world, largely invisible, and grows more powerful by the day.

    That weapon is a vast database, packed with millions of images of faces, irises, fingerprints, and DNA data — a biometric dragnet of anyone who has come in contact with the U.S. military abroad. The 7.4 million identities in the database range from suspected terrorists in active military zones to allied soldiers training with U.S. forces.

    “Denying our adversaries anonymity allows us to focus our lethality. It’s like ripping the camouflage netting off the enemy ammunition dump,” wrote Glenn Krizay, director of the Defense Forensics and Biometrics Agency, in notes obtained by OneZero. The Defense Forensics and Biometrics Agency (DFBA) is tasked with overseeing the database, known officially as the Automated Biometric Information System (ABIS).

    DFBA and its ABIS database have received little scrutiny or press given the central role they play in U.S. military’s intelligence operations. But a newly obtained presentation and notes written by the DFBA’s director, Krizay, reveals how the organization functions and how biometric identification has been used to identify non-U.S. citizens on the battlefield thousands of times in the first half of 2019 alone. ABIS also allows military branches to flag individuals of interest, putting them on a so-called “Biometrically Enabled Watch List” (BEWL). Once flagged, these individuals can be identified through surveillance systems on battlefields, near borders around the world, and on military bases.

    “It allows us to decide and act with greater focus, and if needed, lethality.”

    The presentation also sheds light on how military, state, and local law enforcement biometrics systems are linked. According to Krizay’s presentation, ABIS is connected to the FBI’s biometric database, which is in turn connected to databases used by state and local law enforcement. Ultimately, that means that the U.S. military can readily search against biometric data of U.S. citizens and cataloged non-citizens. The DFBA is also currently working to connect its data to the Department of Homeland Security’s biometric database. The network will ultimately amount to a global surveillance system. In his notes, Krizay outlines a potential scenario in which data from a suspect in Detroit would be run against data collected from “some mountaintop in Asia.”

    The documents, which are embedded in full below, were obtained through a Freedom of Information Act request. These documents were presented earlier this year at a closed-door defense biometrics conference known as the Identity Management Symposium.

    ABIS is the result of a massive investment into biometrics by the U.S. military. According to federal procurement records analyzed by OneZero, the U.S. military has invested more than $345 million in biometric database technology in the last 10 years. Leidos, a defense contractor that primarily focuses on information technology, currently manages the database in question. Ideal Innovations Incorporated operates a subsection of the database designed to manage activity in Afghanistan, according to documents obtained by OneZero through a separate FOIA request.

    These contracts, combined with revelations surrounding the military’s massive biometric database initiatives, paint an alarming picture: A large and quickly growing network of surveillance systems operated by the U.S. military and present anywhere the U.S. has deployed troops, vacuuming up biometric data on millions of unsuspecting individuals.

    The military’s biometrics program, launched in 2004, initially focused on the collection and analysis of fingerprints. “In a war without borders, uniforms, or defined lines of battle, knowing who is an enemy is essential,” John D. Woodward, Jr., head of the DoD’s biometrics department, wrote in a 2004 brief.

    That year, the Department of Defense contracted Lockheed Martin to start building a biometrics database for an initial fee of $5 million. Progress was slow: by 2009, the DoD Inspector General reported that the biometrics system was still deeply flawed. The department indicated that it was only able to successfully retrieve five positive matches from 150 biometric searches. A later contract with defense industry giant Northrop resulted in similarly disappointing results with reports of “system instability, inconsistent processing times, system congestion, transaction errors, and a 48-hour outage.”

    By 2016, the DoD had begun to make serious investments in biometric data collection. That year, the Defense Department deputy secretary Robert O. Work designated biometric identification as a critical capability for nearly everything the department does: fighting, intelligence gathering, law enforcement, security, business, and counter-terrorism. Military leaders began to speak of biometric technology as a “game changer,” and directives from the DoD not only encouraged the use of the technology by analysts, but also by soldiers on the ground. Troops were instructed to collect biometric data whenever possible.

    The same year, a defense company named Leidos, which had acquired a large portion of Lockheed’s government IT business, secured a $150 million contract to build and deploy what is now known as the DoD ABIS system.

    Between 2008 and 2017, the DoD added more than 213,000 individuals to the BEWL, a subset of DoD’s ABIS database, according to a Government Accountability Office report. During that same period, the Department of Defense arrested or killed more than 1,700 people around the world on the basis of biometric and forensic matches, the GAO report says.

    Krizay’s presentation indicates that the United States used biometric matching to identify 4,467 people on the BEWL list in the first two quarters of 2019. The presentation slide breaks down the numbers: 2,728 of those matches were of opposing forces carried out in the “theater,” or area of where U.S. troops are commanded.
    Presentation slides from Glenn Krizay, director of the Defense Forensics and Biometrics Agency. June 2019. Presentation in full below.

    DFBA claims that it has data on 7.4 million unique identities within its ABIS database, a majority of those sourced from military operations in Afghanistan and Iraq, according to the agency’s website.

    That number is constantly growing. The documents suggest the DoD can collect biometric data from detainees, voter enrollments, military enlistments in partner countries, employment vetting, or information given to the military.

    “Almost every operation provides the opportunity to collect biometrics,” a 2014 document on military biometrics says. “While quality is desired over quantity, maximizing enrollments in the database will likely identify more persons of interest.”
    A graphic from a 2014 procedural document outlining military use of biometrics.

    ABIS also enables different operations and missions to create their own biometric watchlists. These databases can be be plugged into custom-built military mobile devices used to scan fingerprints, irises, and match faces against databases, according to a 2014 document outlining biometric procedures across the branches of the armed forces.
    Presentation slides from Glenn Krizay, director of the Defense Forensics and Biometrics Agency. June 2019. Presentation in full below.

    “Fusion of an established identity and information we know about allows us to decide and act with greater focus, and if needed, lethality,” Krizay wrote in his presentation.

    But much is still unknown about how the DFBA and defense agencies use facial recognition and biometric data. A FOIA request which would return information about these systems was denied in part by the U.S. Army.

    “Public release would be tantamount to providing uncontrolled foreign access,” the response letter said.

    In his presentation notes for the Annual Identity Management Symposium, Krizay hints at the future of DFBA and ABIS.

    “We will still need to reveal adversary agent networks, identify and track proxy forces, protect our rear areas and lines of communication, account for enemy prisoners of war, and identify high value individuals,” he wrote.

    The presentation suggests that the department hopes to incorporate biometrics widely into security measures.

    “We’ve already shown we can’t secure our personnel systems,” he wrote. “If Wikileaks can obtain over a half a million of our reports, what can the likes of China or Russia do?”

    DFBA also plans to better integrate ABIS with other similar databases across the government. Despite DFBA being pitched as the central point of digital biometrics for the military, the department is still unable to share information with the Department of Homeland Security’s biometrics system because of formatting issues. In 2021, the DoD is expected to grant a contract for a new version of its biometrics program, one that brings identification software to the cloud and adds even more capabilities.

    “If Wikileaks can obtain over a half a million of our reports, what can the likes of China or Russia do?”

    Meanwhile, critics of facial recognition and biometric technology both in and out of government worry about the accuracy of the technology and how it is being used, especially in regards to bias inherent in much of machine learning, as well as privacy violations.

    The U.S. Commerce Departments’ National Institute of Standards and Technology (NIST) tests have shown that black females are 10 times more likely to be misidentified than white males. When applied in combat scenarios, such discrepancies can have lethal consequences for individuals misidentified by automated systems.

    “It’s unlikely that we will ever achieve a point where every single demographic is identical in performance across the board, whether that’s age, race or sex,” Charles Romine, director of the Information Technology Lab at NIST, told the House Homeland Security Committee in June 2019. “We want to know just exactly how much the difference is.”

    Executives at Leidos, the contractor that built ABIS, do not share similar concerns about the accuracy of their data. “Interestingly, the latest U.S. National Institute of Standards and Technology (NIST) tests show that the top-performing algorithms actually work better with black faces than with white faces,” Leidos Vice President John Mears wrote on the Leidos website.

    It’s not clear which tests Mears is referring to on the NIST website, but when contacted regarding that quote, NIST did not support his claim.

    “As a broad blanket statement it is not correct,” a NIST spokesperson told OneZero, adding that a report studying demographics in facial recognition is currently underway.

    Leidos declined to comment for this story, and referred all questions to the DoD when asked how it vetted for bias in its facial recognition algorithms.

    This technical challenge is not slowing down the adoption of biometrics. It’s unclear how many identities have been added to ABIS since Krizay’s presentation, or since DFBA last updated its website. Every indicator suggests the military is only growing its capability of collecting more and more data.

    As that data is further connected to sources like the Department of Homeland Security, the U.S. military’s surveillance system grows stronger.

    “We are not wandering in the dark,” Krizay wrote in his presentation. “We know who people are and more of what they have done.”

    #militaire #guerre #vie_privée #USA #technologie #reconnaissance_faciale

  • Der fleißige Herr Spahn - Mit Vollgas gegen den Datenschutz | Telepolis
    https://www.heise.de/tp/features/Der-fleissige-Herr-Spahn-Mit-Vollgas-gegen-den-Datenschutz-4556149.html

    Wie man Datenschutzabbau im Gesundheitswesen als Sicherheitsmaßnahme framet

    Medienwirksam stellt sich der Bundesgesundheitsminister als Hüter des Datenschutzes dar. In Wirklichkeit hat er gerade unbemerkt von der Öffentlichkeit einen bedeutenden Eingriff in die Grundrechte des Bürgers durchs Parlament gebracht.

    Wie man Datenschutzabbau als Versorgungsinnovation framet | Telepolis
    https://www.heise.de/tp/features/Wie-man-Datenschutzabbau-als-Versorgungsinnovation-framet-4571885.html

    Der fleißige Herr Spahn: Mit Vollgas gegen den Datenschutz - Teil 2

    Unbemerkt von der Öffentlichkeit geht der Datenschutzabbau in die nächste Runde. Spahns Digitale-Versorgung-Gesetz, bekannt als „App auf Rezept“, plant digitale „Innovationen“ auf Kosten des informationellen Selbstbestimmungsrechts der Bürger

    „Terminservice- und Versorgungsgesetz“: Wie man Datenschutzabbau als Qualitätssicherung framet | Telepolis
    https://www.heise.de/tp/features/Terminservice-und-Versorgungsgesetz-Wie-man-Datenschutzabbau-als-Qualitaetssic

    Der fleißige Herr Spahn - Mit Vollgas gegen den Datenschutz: Teil 3

    Unbemerkt von der Öffentlichkeit hat Gesundheitsminister Spahn mit seinem „Terminservice- und Versorgungsgesetz“ einen weiteren Abbau von Datenschutzrechten der Bürger durchs Parlament gebracht.

    #Allemagne #vie_privée #santé #pilitique #maladie

  • Wem gehört die Stadt, wem die Mobilitätsdaten?
    https://framadrop.org/r/3-OwV6nVzt#O7tpkeRnEHdA4Vn0FQnsPRss8NOhWMqT1AHS4bLqiyY=

    Wortwechsel im Bürgerbüro Mi. 6.11. um 19 Uhr, Bürgerbüro Bluhm – Seidel – Wolf, Erich-Weinert-Straße 6, 10439 Berlin

    WEM GEHÖRT DIE STADT,
    WEM DIE MOBILITÄTSDATEN?

    Jelbi und Open Data

    Die Initiative Volksentscheid Transparenzgesetz für Berlin möchte alle Behörden und öffentliche Unternehmen zur Offenlegung ihrer Daten verpflichten.
    Das Berliner Landesunternehmen BVG verspricht in seiner Jelbi-App alle Mobilitätsangebote Berlins zu vereinen: Bus, Bahn, Taxi und Sharinganbieter für Fahrrad, Roller und Auto.

    – Jelbi, sonst nichts? Alle Mobilitätsangebote auf einer Plattform? Ein Datenschatz!

    Doch die anfallenden Mobilitätsdaten der NutzerInnen müssten bei einem Erfolg des Volksbegehrens offengelegt werden. Oder fallen diese unter das Geschäftsgeheimnis? Oder berühren sie Datenschutzfragen? Wie kann der Datenschutz der NutzerInnen implementiert werden?
    Sollte der Datenzugang strategisch nur an Kooperationspartner erfolgen oder öffentlich und maschinenlesbar für alle zugänglich sein? Hätte Open Data einen Wettbewerbsnachteil für Jelbi zufolge? Warum ist der Software-Code der Jelbi-App nicht Open-Source?

    Jelbi hat das Ziel, alle in Berlin tätigen Mobility Service Provider (MSP) in seiner App zugänglich zu machen. Wie möchte die BVG bislang außen vor gebliebene Unternehmen zur Kooperation motivieren?

    VertreterInnen der BVG legen ihre Perspektive dar,
    Maximilian Blum als Sprecher der Landesarbeitsgemeinschaft Netzpolitik und Tobias Schulze als Sprecher für Netzpolitik der Linksfraktion im Abgeordnetenhaus verorten das Thema politisch.

    Anschließend soll über Pro und Contra einer denkbaren Offenlegung debattiert werden. Außerdem liegen Unterschriftenlisten der Initiative »Ein Transparenzgesetz für Berlin!« aus.

    #Berlin #open_data #transport #privatisation #vie_privée #smart_city #ÖPNV

  • How #Photos of Your Kids Are Powering #Surveillance Technology - The New York Times
    https://www.nytimes.com/interactive/2019/10/11/technology/flickr-facial-recognition.html

    One day in 2005, a mother in Evanston, Ill., joined Flickr. She uploaded some pictures of her children, Chloe and Jasper. Then she more or less forgot her account existed.

    Years later, their faces are in a database that’s used to test and train some of the most sophisticated artificial intelligence systems in the world.

    [...]

    None of them could have foreseen that 14 years later, those images would reside in an unprecedentedly huge facial-recognition database called MegaFace. Containing the likenesses of nearly 700,000 individuals, it has been downloaded by dozens of companies to train a new generation of face-identification algorithms, used to track protesters, surveil terrorists, spot problem gamblers and spy on the public at large.

    #IA #vie_privée #internet #enfants

  • How to Set Your #Google #Data to Self-Destruct - The New York Times
    https://www.nytimes.com/2019/10/02/technology/personaltech/google-data-self-destruct-privacy.html

    How do we best use Google’s new privacy tools? The company gave me a demonstration of the newest controls this week, and I tested the tools that it released earlier this year. Here’s what to know about them.

    Most of Google’s new privacy controls are in a web tool called My Activity. (Here’s the URL: myactivity.google.com.)

    #vie_privée #internet #données

  • Mes Datas et Moi. Reprenez en main votre identité numérique !
    https://www.mesdatasetmoi.fr

    Un portail thématique sur les données personnelles...
    ...pas super convaincant quand on s’aperçoit qu’il n’y a pas de paramétrage possible des cookies déposés par ce site ("j’accepte" et rien d’autre) et que les outils/sous-sites associés ("une journée de données", application mobile...) commencent par demander tout un tas d’infos persos (âge, code postal...)

    #vie_privée #big_data #données_personnelles

  • Apple iOS 13: Is Facebook And Google’s Worst Nightmare Coming True?
    https://www.forbes.com/sites/kateoflahertyuk/2019/09/22/apple-ios-13-is-facebook-and-googles-worst-nightmare-coming-true/#5f74995b765f

    Apple’s iOS 13 comes with some major changes to privacy and security, but it’s also highlighted the data collection practices of firms such as Facebook and Google.

    One of the first things you might notice when using Apple’s iOS 13 is a notification when opening an app such as Facebook asking for Bluetooth permission.

    Sure, some apps need access to Bluetooth to work properly. Take, for example the Fitbit smartwatch. But others use Bluetooth to stealthily track people’s location using beacons dotted around in cities and shopping areas.

    The Verge’s Chris Welch wrote a useful article including more detail on apps that need Bluetooth. He points out that many iPhone users will assume they need to grant Bluetooth permission for their music apps to work with Bluetooth headphones or speakers. Not so: Bluetooth audio is handled through your system settings, separately from your apps.

    Another major change in iOS 13, which relates to location settings, could affect firms such as Google and Facebook significantly. Apple’s updated operating system will now show you how often your location has been recorded and by which apps. It will do this proactively via a pop up, which shows a map of where you have been tracked, including the option to allow or limit it.

    Previously, many apps were able to track you in the background without your knowledge. They were able to collect vast amounts of data on you, which they could use to target you with advertising.

    Along the same theme, another blow to apps such as Facebook and WhatsApp is a change in Apple’s iOS 13 that will not allow messaging and calling apps to run in the background when the programs are not actively in use. Before, apps such as these were able to collect information on what you were doing on your device.

    #Vie_privée #Traçage #Apple #iOS13

  • Opinion | Jaron Lanier Fixes the Internet - The New York Times
    https://www.nytimes.com/interactive/2019/09/23/opinion/data-privacy-jaron-lanier.html

    By Jaron LanierSept. 23, 2019

    Episode 1 The Great Data Robbery
    Episode 2 You Should Get Paid For Your Data
    Episode 3 Hope For Our Internet Future
    Opinion | The Privacy Project
    Jaron Lanier
    Fixes The Internet
    By Jaron Lanier, Produced by Adam Westbrook
    The Silicon Valley maverick has a radical vision for how we can all earn money from our data.
    Episode 1 The Great Data Robbery You’ve been tricked into giving away your most valuable asset.
    Episode 2 You Should Get Paid for Your Data Your data makes the internet go round. Here’s a plan to get you compensated.
    Episode 3 Hope For Our Internet Future We can remake the internet into a force for good.

    #Données #Vie_privée #Algorithmes #Jaron_Lanier