• [Libération] Lionel Maurel : « On doit pouvoir quitter Facebook sans perdre les liens qu’on y a créés »
    https://www.laquadrature.net/2018/12/07/liberation-lionel-maurel-on-doit-pouvoir-quitter-facebook-sans-perdre-

    Pour le juriste Lionel Maurel, l’approche individualiste de la protection des données personnelles ne permet pas d’appréhender la dimension sociale qu’exploitent les grandes plateformes du Net. Il appelle à la mise en place d’un droit…

    #Cite_La_Quadrature_du_Net #Revue_de_presse #Vie_privée_-_Données_personnelles #revue_de_presse


  • [FranceCulture] Faut-il avoir peur des GAFA chinois ?
    https://www.laquadrature.net/2018/12/05/franceculture-faut-il-avoir-peur-des-gafa-chinois

    Méconnus en France, les géants du web chinois, Baidu, Alibaba, Tencent, Xiaomu (les « BATX ») inquiètent. Comment appréhender l’arrivée de tels mastodontes numériques en Europe ? Leurs pratiques sont-elles plus problématiques que celles de Google, Apple, Facebook…

    #Cite_La_Quadrature_du_Net #Revue_de_presse #Vie_privée_-_Données_personnelles #revue_de_presse


  • Strasbourg : Facebook au marché de Noël . . . . Justine Saint-Sevin - France 3 Régions - 1 Décembre 2018
    https://france3-regions.francetvinfo.fr/grand-est/bas-rhin/strasbourg-0/strasbourg-facebook-au-marche-noel-presence-qui-detonne

    Vendredi 30 novembre, Facebook a investi pour la première fois le marché de Noël de Strasbourg. Son chalet niché au cœur du Village du partage au milieu des associations solidaires surprend.

    Un nouveau venu, nommé Facebook, a pris place dans le chalet jusqu’alors tenu par l’association Emmaüs sur le Village du partage au petit matin ce vendredi. Et qu’ils soient bénévoles, habitués de l’incontournable marché strasbourgeois ou touristes à peine débarqués d’un train, un même questionnement les unit : « mais que vient faire Facebook ici ? » .
    . . . . .

    . . . . .
    La présence d’une société qui brasse des milliards, pointée du doigt pour son impôt dérisoire versé à la France, au milieu des Petits Frères des Pauvres ou du Secours populaire, n’est pas anodine. Facebook dont l’image s’est effritée après les nouvelles révélations de fuites de données personnelles se doit de redorer son blason. Au côté des initiatives de dons ou de la formation gratuite aux différentes fonctionnalités proposées, les passants sont d’ailleurs invités à apprendre à optimiser la sécurité de leurs données sur l’application. Coïncidence ? 

    #facebook #Emmaüs #Petits_Frères_des_Pauvres #Secours_populaire #Strasbourg #google #surveillance #internet #censure #réseaux_sociaux #publicité #données #profiling #bigdata #manipulation #marketing #vie_privée #foutage_de_gueule #start_up_nation


  • [Zdnet.Fr] 10 ans au compteur mais la Quadrature a toujours besoin de vos dons
    https://www.laquadrature.net/2018/11/27/zdnet-fr-10-ans-au-compteur-mais-la-quadrature-a-toujours-besoin-de-vo

    La Quadrature a donné jeudi 15 novembre le coup d’envoi à sa campagne annuelle de collecte de dons. L’association entend revenir à une organisation plus horizontale et entame « un nouveau chapitre » pour marquer les dix…

    #censure_et_filtrage_du_Net #Cite_La_Quadrature_du_Net #droit_d'auteur #neutralité_du_Net #Revue_de_presse #Surveillance #Vie_privée_-_Données_personnelles #revue_de_presse


  • Fichage des enfants et adolescent∙e∙s non accompagné∙e∙s : le gouvernement doit renoncer à son projet de décret

    Deux mois après la création d’un fichier national biométrique des mineur⋅e⋅s non accompagné⋅e⋅s (#MNA) par la loi « Asile et Immigration », 10 organisations rendent public le projet de décret d’application préparé par le Ministère de l’Intérieur. Ce texte confirme nos craintes et en suscite de nouvelles. Au motif annoncé dans ce projet de décret de « mieux garantir la protection de l’enfance et de lutter contre l’entrée et le séjour irréguliers des étrangers », le ministère de l’Intérieur propose un texte qui permettra aux départements de remettre en cause encore plus aisément la minorité des enfants qui sollicitent une protection et facilitera leur éloignement du territoire, sans égard pour le respect de leur #vie_privée et leur droit à une protection. Ces mineur∙e∙s sont ainsi considéré∙e∙s d’abord comme des migrant∙e∙s à expulser plutôt que comme des enfants à protéger.

    Un nouveau fichier d’« Appui à l’Évaluation de la Minorité »

    Alors même que nos organisations dénoncent le « non accueil » dont ils font l’objet et demandent que soit garantie une mise à l’abri immédiate, un temps de répit, de protection et de mise en confiance avant l’évaluation de leur situation, le projet de décret prévoit une première phase strictement administrative, pendant laquelle les mineur∙e∙s isolé∙e∙s devront se soumettre à une prise d’empreintes, de photographie et répondre aux questions d’agents des préfectures, formulées dans une langue « dont il est raisonnable de penser » qu’ils ou elles la comprennent. Leur état civil, la référence de leurs documents d’identité, leur filiation, leur adresse, leur numéro de téléphone, ou encore la date et les conditions de leur arrivée en France pourront aussi être enregistrés dans ce nouveau fichier dénommé « Appui à l’Évaluation de la Minorité » (AEM). S’ils ou elles refusent, le préfet informera le président du Conseil départemental, qui risquerait d’interpréter ce refus comme un aveu de majorité et mettra fin à leur prise en charge.

    Expulsé.e.s après une évaluation aléatoire ?

    Pire, le décret transforme la protection de l’enfance en potentiel instrument de la politique d’expulsion du territoire : le refus de protéger un∙e jeune à l’issue de son évaluation permettra aux services préfectoraux de procéder à « un examen de sa situation, et le cas échéant, [à] une mesure d’éloignement ». Or, les conditions dans lesquelles sont menées ces évaluations ne permettent pas aux départements de prendre des décisions fiables et respectueuses des droits de ces enfants, de sorte qu’elles sont régulièrement remises en cause par les juges des enfants. A Paris, en 2016 et 2017, la moitié des décisions administratives de non reconnaissance de minorité ont été infirmées par le juge qui a ordonné à l’aide sociale à l’enfance d’admettre ces enfants, qu’elle avait précédemment remis à la rue [1].

    VISABIO, une source d’erreur supplémentaire

    Alors même que cette possibilité avait été écartée lors des débats à l’Assemblée Nationale, ce projet de décret autorise également les préfectures à consulter le fichier VISABIO [2] pour vérifier l’âge et l’identité de ces enfants. Ce fichier ne peut constituer qu’une source d’erreur supplémentaire lorsque l’on sait que beaucoup d’enfants tentent, avant d’entreprendre un voyage périlleux vers l’Europe, d’obtenir un visa d’entrée en Europe en se faisant passer pour des adultes. Les données issues de #VISABIO sont d’ailleurs très souvent écartées par les tribunaux, qui considèrent qu’elles ne permettent pas de remettre en cause l’identité des mineur∙e∙s, ni d’invalider les documents qu’ils ou elles présentent à l’appui de leurs déclarations.

    Nous, organisations agissant au quotidien auprès des mineur∙e∙s en danger, alertons sur les conséquences désastreuses que ce projet de décret aurait pour ces enfants et demandons son retrait. Il est impératif que le gouvernement garantisse à ces jeunes un accès à leurs droits dans des conditions dignes, quel que soit le département où ils sollicitent une protection.

    https://www.gisti.org/spip.php?article6036
    #biométrie #surveillance #mineurs_non_accompagnés #enfants #enfance #asile #migrations #réfugiés #expulsions #âge #renvois #empreintes_digitales


  • RFC 8404 : Effects of Pervasive Encryption on Operators

    La #vie_privée sur l’Internet fait aujourd’hui l’objet d’innombrables attaques et l’une des techniques de défense les plus efficaces contre ces attaques est le #chiffrement des données. Il protège également contre une autre menace, la modification des données en transit, comme le font certaines FAI (par exemple Orange Tunisie). Il y a de nombreuses campagnes de sensibilisation pour promouvoir le chiffrement, avec des bons résultats. Évidemment, ce chiffrement gène ceux qui voudraient espionner et modifier le trafic, et il fallait donc s’attendre à voir une réaction. Ce #RFC est l’expression de cette réaction, du côté de certains opérateurs réseaux, qui regrettent que le chiffrement empêche leurs mauvaises pratiques.

    https://www.bortzmeyer.org/8404.html


  • [RFI] Les GAFAM, géants du Net, sont-ils en règle sur la protection des données&nbsp ?
    https://www.laquadrature.net/2018/11/16/rfi-les-gafam-geants-du-net-sont-ils-en-regle-sur-la-protection-des-do

    Après avoir été reçu à l’Elysée par Emmanuel Macron, le PDG d’Apple s’exprime ce mercredi au Parlement européen lors d’une conférence sur la confidentialité. L’occasion pour Tim Cook d’évoquer le nouveau RGPD, le règlement général…

    #Parle_de_La_Quadrature_du_Net #Revue_de_presse #Vie_privée_-_Données_personnelles #revue_de_presse


  • Ce que récolte #Google : revue de détail – Framablog
    https://framablog.org/2018/11/14/ce-que-recolte-google-revue-de-detail

    Si beaucoup encore proclament à l’occasion « je n’ai rien à cacher » c’est moins par conviction réelle que parce que chacun en a fait l’expérience : « on ne peut rien cacher » dans le monde numérique. Depuis quelques années, les mises en garde, listes de précautions à prendre et solutions alternatives ont été largement exposées, et Framasoft parmi d’autres y a contribué.

    Il manquait toutefois un travail de fond pour explorer et comprendre, une véritable étude menée suivant la démarche universitaire et qui, au-delà du jugement global approximatif, établisse les faits avec précision.

    C’est à quoi s’est attelée l’équipe du professeur Douglas C. Schmidt, spécialiste depuis longtemps des systèmes logiciels, chercheur et enseignant à l’Université Vanderbilt, qui livre au public une étude d’une cinquantaine de pages intitulée #Google_Data_Collection. Cette #étude, qui nous semble pouvoir servir de référence, a retenu l’attention du groupe Framalang qui vous en livre ci-dessous l’executive summary, c’est-à-dire une sorte de résumé initial, qui en donne un aperçu programmatique.

    #données_personnelles #vie_privée #big_data

    Aussi visible sur https://seenthis.net/messages/735693 mais moi c’est artisanal ;-)


  • [LeMonde] Le contrôle des données numériques personnelles est un enjeu de liberté collective
    https://www.laquadrature.net/2018/10/25/le-controle-des-donnees-numeriques-personnelles-est-un-enjeu-de-libert

    Les révélations des failles de sécurité touchant des services en ligne s’accumulent. Et la collecte de nos données fait peser un risque collectif d’envergure. [...]

    #Revue_de_presse #Vie_privée_-_Données_personnelles


  • Des capteurs sonores plutôt que des caméras sur la voie publique Cynthia Racine/oang - 13 Novembre 2018 - RTS
    https://www.rts.ch/info/sciences-tech/technologies/9990834-des-capteurs-sonores-plutot-que-des-cameras-sur-la-voie-publique.html

    Une start-up genevoise a développé des détecteurs sonores capables d’alerter immédiatement les forces de l’ordre lors d’une collision, un coup de feu ou une explosion. Cette innovation séduit déjà certaines villes.

    La start-up genevoise SecurAxis, qui a développé cette technologie proposant de remplacer les caméras de surveillance par des détecteurs de bruit, a reçu lundi le premier prix de l’incubateur suisse du CERN.

    Les autorités de la Ville de Genève semblent séduites par le projet et des discussions sont en cours pour lancer une phase test. Les villes d’Abou Dhabi et de Taipei ont, elles aussi, montré leur intérêt.

    « Niveau très élevé de protection des données »
    Car cette technologie arrive avec une promesse liée à une thématique très sensible : la protection des données. « On le voit aujourd’hui, l’image est de plus en plus remise en cause sur la voie publique », constate le directeur des opérations chez SecureAxis Gaëtan Vannay.

    « Nos capteurs de son ont cette capacité de pouvoir informer tout aussi bien - si ce n’est mieux - de ce qui se passe via ce type de détection. Du point de vue de la sécurité des données, de la confidentialité, c’est un niveau très élevé. »

    Spécialiste des enjeux sécuritaires
    La start-up, avant tout spécialisée dans la vision en temps réel des enjeux sécuritaires, n’en n’est pas à son coup d’essai. Elle propose déjà une plateforme internet qui permet, en cas d’attentat par exemple, de recenser le personnel touché et de transmettre instantanément des informations. Il s’agit d’une sorte de réseau social de la sécurité.

    Certaines ONG, le Département fédéral des affaires étrangères (DFAE) ou encore le TCS travaillent déjà avec SecureAxis. La start-up espère que ses détecteurs d’événements seront parfaitement opérationnels l’été 2020.

    #surveillance #audio #audio-surveillance ##vie_privée #contrôle #police #sécurité #Suisse


  • La Cnil met en demeure l’école 42 pour ses pratiques de « vidéosurveillance excessive » Elisa Braun - 30 Octobre 2018 - Le Figaro
    http://www.lefigaro.fr/secteur/high-tech/2018/10/30/32001-20181030ARTFIG00104-la-cnil-met-en-demeure-l-ecole-42-pour-ses-pratiq

    L’école d’informatique de Xavier Niel dispose de 60 caméras qui filment en permanence les élèves et salariés. Le gendarme des données personnelles y voit une grave atteinte à la vie privée.

    L’#école_42 a beaucoup fait pour s’ériger en formation modèle dans le domaine des technologies. Mais la décision rendue par le gendarme des données personnelles, la Commission Nationale Informatique et Libertés (CNIL), risque d’écorner sérieusement cette image. Le régulateur vient de mettre en demeure l’école créée par #Xavier_Niel pour plusieurs manquements à la loi en matière de gestion des #données_personnelles. De graves atteintes à la #vie_privée des élèves, anciens élèves et salariés ont ainsi été constatées.

    Une « surveillance constante »
    La Cnil remarque que près de 60 caméras « [filment] en continu l’ensemble des espaces de travail occupés par les étudiants, les espaces de pauses ainsi que les bureaux du personnel administratif, plaçant ainsi l’ensemble des personnes concernées sous une #surveillance constante ». La #vidéosurveillance est qualifiée d’excessive par le régulateur, qui souligne que seules certaines circonstances particulières, comme le transfert de fonds, justifient l’attention que l’école 42 porte jusqu’aux allées et venues des visiteurs aux toilettes. Or, « en l’espèce, aucun élément apporté par [l’école] ne permet de justifier que les étudiants et le personnel soient placés sous #surveillance permanente », tranche le régulateur.

    D’autre part, la délégation de la Cnil s’étonne de « la mise en place d’un dispositif inédit au sein de l’école en ce que les étudiants peuvent accéder en temps réel à la plupart des images issues de la vidéosurveillance, ce qui permet à tout moment de savoir où se trouve chacun d’entre eux, ce qu’il fait et avec qui il se trouve ». Des observateurs extérieurs notent également que l’accès aux images de l’école est protégé par un code d’accès à seulement 5 chiffres qu’il est facile, pour un pirate, de contourner. Cette facilité d’accès globale avait notamment permis à certaines vidéos de nature compromettante de fuiter de l’école. L’an dernier, une enquête de l’Usine Digitale rapportait plus largement que l’école informatique était gangrenée par une #atmosphère_sexiste. « Les images de vidéosurveillance des locaux, accessibles aux étudiants, servent aux garçons à repérer les filles qu’ils aimeraient bien draguer », rapportait une jeune femme.

    Commentaires personnels sur les élèves
    D’autres éléments portant sur la gestion administrative des étudiants sont aussi pointés du doigt par la #Cnil. Ainsi, l’école 42 conserve indéfiniment les données des personnes ayant passé le test d’entrée, sans en informer les principaux intéressés. La base de données pédagogique comporte en outre des commentaires sur les élèves de nature particulièrement sensible. « Il a enfin été diagnostiqué de plusieurs maladies graves […] » ou encore « entre le procès avec son ancien employeur, […]et sa dépression, [X] n’a pas du tout pu se consacrer à 42, il a à nouveau rechuté dans la dépression, sa mère a eu un cancer juste avant sa rentrée […] » sont des commentaires observés par le régulateur. Des informations financières sur le niveau d’endettement ont également été constatées. Si de telles données peuvent être utiles au suivi pédagogique des élèves, le régulateur s’étonne de ce qu’elles soient accessibles à n’importe quel membre de l’administration et ne fassent pas l’objet d’une procédure de sécurisation particulière.

    Enfin, quelques détails techniques ont également de quoi surprendre, de la part d’une école censée former des développeurs back-end (c’est-à-dire qui gèrent les infrastructures informatiques derrière les sites Web, et touchent donc à l’aspect de la sécurité des données). L’école 42 envoie ainsi les mots de passe en clair aux élèves, pour accéder à leur espace personnel. Ce mot de passe est jugé « d’une robustesse insuffisante car [composé] de 8 caractères alphanumériques comprenant des lettres majuscules et minuscules. » L’école 42 se rend ainsi coupable, pour la Cnil, d’un manquement à l’obligation d’assurer la sécurité et la confidentialité des données.

    L’école a désormais deux mois pour rectifier le tir, faute de quoi elle se rend passible de sanctions pouvant aller jusqu’à une amende de 1,5 million d’euros. Comme le rappelle la Cnil, « cette mise en demeure ne revêt pas le caractère d’une sanction. À ce titre, aucune suite ne sera donnée à la procédure si l’organisme concerné se conforme en tout point aux exigences de la mise en demeure dans le délai imparti. Si tel est le cas, celle-ci fera l’objet d’une clôture qui sera également rendue publique ». Contactée, l’école 42 n’a pas encore donné suite aux sollicitations du Figaro.


  • « La #domination au #travail est beaucoup plus dure qu’avant » | L’Echo
    https://www.lecho.be/opinions/carte-blanche/la-domination-au-travail-est-beaucoup-plus-dure-qu-avant/10060958.html
    https://images.lecho.be/view?iid=dc:134266160&context=ONLINE&ratio=16/9&width=640&u=1540186800000

    N’oublions pas également que comme il n’y a pas d’étanchéité entre travail et non-travail, les souffrances professionnelles ont des conséquences dommageables immédiates sur la vie de famille, les loisirs et même la vie dans la Cité dans la mesure où l’on a tendance à s’y comporter comme au travail : chacun pour soi.

    En outre, les stratégies de déni ont un effet de désensibilisation qui conduit à une banalisation de l’injustice : si je nie ma propre souffrance, je ne peux pas reconnaître celle des autres. C’est un retournement sinistre : pour tenir individuellement, on aggrave le malheur social.

    Dans ce contexte, on peut se demander si un tel système ne risque pas de s’effondrer – puisqu’il ne fonctionne que par le concours des travailleurs. Les cas d’effondrement moral existent. Durant la guerre du Vietnam, par exemple, des régiments entiers ont dit : « Fini ! On n’avance plus ! », quitte à être tués – quand ils ne tuaient pas leurs propres officiers. En entreprise, si l’exigence de performance devient insoutenable, le risque d’effondrement collectif existe aussi.


  • Émission « Libre à vous ! » sur radio Cause Commune (6 novembre 2018)
    https://www.april.org/emission-libre-a-vous-sur-radio-cause-commune-6-novembre-2018

    Début : 6 Novembre 2018 - 15:30Fin : 6 Novembre 2018 - 17:00

    Écouter le podcast

    >

    La sixième émission Libre à vous ! de l’April sera diffusée en direct sur radio Cause Commune sur la bande FM en région parisienne (93.1) et sur le site web de la radio, mardi 6 novembre 2018 de 15 h 30 à 17 h 00.

    S’abonner au podcast

    Les ambitions de l’émission Libre à vous !

    La radio Cause commune a commencé à émettre fin 2017 sur la bande FM en région parisienne (93.1) et sur Internet. Sur le site de la radio on lit : « Radio associative et citoyenne, les missions de Cause Commune sont de fédérer toutes les initiatives autour du partage et de l’échange de savoirs, de cultures et de techniques ».

    Nous avons proposé de tenir une émission April intitulée Libre à Vous ! d’explications et (...)

    #Vie_privée_-_données_personnelles #Sensibilisation #Libre_à_vous_ !


  • Le contrôle des données numériques personnelles est un enjeu de liberté collective
    https://www.lemonde.fr/pixels/article/2018/10/19/le-controle-des-donnees-numeriques-personnelles-est-un-enjeu-de-liberte-coll

    Les révélations des failles de sécurité touchant des services en ligne s’accumulent. Et la collecte de nos données fait peser un risque collectif d’envergure

    C’est une litanie. Facebook a admis, vendredi 12 octobre, que des données personnelles de 29 millions d’internautes avaient été subtilisées par des pirates informatiques. Quatre jours auparavant, son concurrent Google confiait qu’une faille avait exposé un demi-million d’utilisateurs de Google+.

    Il ne s’agit-là que des exemples les plus récents. Mais chaque jour, chaque mois, chaque année charrie son lot ininterrompu de piratages et de fuites de données. De l’entreprise de crédit américaine Equifax au grand groupe Yahoo !, en passant par Target, British Airways, Uber, Adidas, Exactis ou Ashley Madison.

    Personne ne bouge, ou à de rares exceptions
    L’affaire est simple : si vous avez utilisé Internet ces dix dernières années, une partie de votre intimité est accessible en ligne. En premier lieu, pour les entreprises et les applications dont vous utilisez les services. Au-delà des failles et des hacks (« piratage »), les données personnelles sont devenues le carburant de la société du XXIe siècle. Toutes nos actions numériques sont captées, mesurées, identifiées, analysées, sauvegardé, alors que les services en ligne ne cessent de se multiplier, depuis l’apparition des ordinateurs jusqu’aux smartphones en passant désormais par vos télévisions, fours micro-ondes et voitures connectés.

    Mais les données des utilisateurs sont aussi, parfois, accessibles à des malfaiteurs ou à des services tiers. Ils arrivent à contourner la sécurité des entreprises et des applications en question, ou à en explorer les limites, pour en tirer toujours plus d’informations.

    Malgré les scandales à répétition et les intrusions toujours plus systématiques dans la vie des citoyens, face à ce constat personne ne bronche, ou à de rares exceptions, sauf des militants des libertés numériques ou quelques individus gênés par ce système intrusif. En mars, l’affaire Cambridge Analytica – qui a participé à la campagne électorale de Donald Trump – dévoilait que l’entreprise avait eu accès aux informations privées de 87 millions d’utilisateurs. A part une violente tempête politique, l’affaire n’a pas eu le moindre impact pour Facebook. Six mois ont passé et les utilisateurs y sont toujours d’une fidélité à toute épreuve. Ils sont toujours, chaque jour, 1,47 milliard à se connecter au réseau social.

    Il serait commode de penser que l’humain du XXIe siècle a renoncé à sa vie privée. Mais il ne s’agit pourtant pas d’indifférence. Les sondages montrent avec insistance et sans ambiguïté que les internautes la chérissent encore à l’heure des réseaux sociaux et des smartphones. Comment, alors, expliquer cette apathie ? Très souvent, parler de la vie privée évoque l’image du héros du film La Vie des autres (2007), de Florian Henckel von Donnersmarck. On imagine cet agent de la police politique est-allemande, un casque vissé sur la tête, écouter avec soin les moindres soubresauts de la vie de ses voisins du dessous.

    Or, pour l’immense majorité d’entre nous, il n’y a pas d’agent des services secrets derrière l’écran de notre smartphone. Personne, que ce soit chez Google, Facebook ou toute autre entreprise du numérique, ne va éplucher avec délectation le détail de nos déplacements, l’historique de nos recherches ou nos dernières photos de vacances. Même les pirates de Google ou de Facebook n’avaient sans doute que faire de l’intimité individuelle de leurs cibles.

    L’invraisemblable machine à cibler
    Pendant des décennies, à raison, défendre la vie privée revenait à protéger l’individu. Aujourd’hui encore, on s’obstine à rechercher et mesurer les conséquences individuelles de cette collecte effrénée de données personnelles et de ces piratages à répétition. Mais le paradigme a changé : la question des données personnelle n’est pas un problème d’intimité. C’est un enjeu de liberté collective.

    Prenez l’affaire Cambridge Analytica : le problème n’est pas que Donald Trump et son équipe de campagne ont consulté méthodiquement la liste d’amis de 87 millions d’utilisateurs de Facebook (dont plus de 200 000 Français). Mais qu’ils aient pu utiliser ces informations, agrégées à des millions d’autres, pour mener une campagne politique extrêmement personnalisée, quasi individualisée, en utilisant à plein l’invraisemblable machine à cibler des messages proposée par Facebook. L’impact de cette fuite de données personnelles n’est plus individuel, il est collectif. Il ne s’agit pas de l’intimité de son existence vis-à-vis d’une organisation politique, mais de la liberté collégiale de choisir en conscience son dirigeant politique ou ses conditions de vie commune.

    Les algorithmes enserrent nos vies : ils nous disent quoi acheter, où partir en vacances, qui rencontrer, quel article de presse lire, comment nous déplacer, décident ce que nous pouvons écrire. Cette trame nouée autour de nos vies est tissée de nos données personnelles. Pas seulement des nôtres, individu connecté, mais de toutes les autres : les algorithmes ne fonctionnent qu’assis sur des masses de données. C’est la somme, l’agrégat et la combinaison des données à l’échelle de milliers, voire de millions d’êtres humains, qui font leur puissance.

    Les facteurs qui poussent une entreprise à orienter nos choix, en analysant nos données et celles des autres, seront perpétuellement obscurs. Au bout du compte et si rien ne change, alors que ces entreprises s’immisceront de plus en plus dans nos activités quotidiennes, passant peu à peu de la « suggestion » à l’« injonction », nous serons sans doute pris au piège des données personnelles. On décidera à notre place, d’une manière qu’on nous présentera comme optimale puisque conçue sur l’analyse de données de millions de personnes dont la vie nous est similaire, et en nous confisquant une part de notre libre arbitre. Il ne s’agit pas d’intimité vis-à-vis d’une quelconque entreprise de la Silicon Valley, mais de liberté individuelle.

    Une urgence comparable à celle du climat
    La seule solution est de limiter la dissémination aux quatre vents de nos données personnelles. Mais comment le faire sans se retirer des connexions, sociales et professionnelles, d’une société désormais numérisée ? Comment renoncer à tous ces avantages ? La solution se trouve quelque part entre le collectif (des règles politiques pour limiter la collecte et l’exploitation des données) et l’individuel (le recours à une technologie plus frugale et plus décentralisée).

    Ces questions ne vous rappellent rien ? La question de la vie privée se rapproche d’un autre problème aux sources individuelles et aux conséquences collectives : la pollution. Une photo postée sur Facebook ou un achat sur Amazon n’ébranle pas la démocratie ; pas plus qu’un unique trajet en voiture ne met, à lui seul, la planète en péril. C’est lorsqu’on les agrège et qu’on les combine que les dégâts deviennent apparents et évidents.

    Bien sûr, l’urgence climatique dépasse de loin les enjeux des données personnelles. Mais la comparaison montre l’ampleur du changement de modèle qui sera nécessaire pour défaire le piège que la collecte de données personnelles fait peser sur la démocratie.

    Martin Untersinger

    #Internet #économie_numérique #données_personnelles #vie_privée


  • Privacy by #design : concevoir pour préserver la #vie_privée
    http://www.internetactu.net/2018/10/18/privacy-by-design-concevoir-pour-preserver-la-vie-privee

    Tijmen Schep (@tijmenschep) se définit comme un chercheur et activiste technocritique, un concepteur d’innovations éthiques comme le proclame le site de sa société de conseil. Sur la scène de la conférence Ethics by Design, il se présente également comme un privacy designer, un ingénieur de la vie privée. On a (...)

    #Articles #Recherches #attentionbydesign


  • Most White Americans’ DNA Can Be Identified Through Genealogy Databases - The New York Times
    https://www.nytimes.com/2018/10/11/science/science-genetic-genealogy-study.html

    The genetic genealogy industry is booming. In recent years, more than 15 million people have offered up their DNA — a cheek swab, some saliva in a test-tube — to services such as 23andMe and Ancestry.com in pursuit of answers about their heritage. In exchange for a genetic fingerprint, individuals may find a birth parent, long-lost cousins, perhaps even a link to Oprah or Alexander the Great.

    But as these registries of genetic identity grow, it’s becoming harder for individuals to retain any anonymity. Already, 60 percent of Americans of Northern European descent — the primary group using these sites — can be identified through such databases whether or not they’ve joined one themselves, according to a study published today in the journal Science.

    Within two or three years, 90 percent of Americans of European descent will be identifiable from their DNA, researchers found. The science-fiction future, in which everyone is known whether or not they want to be, is nigh.

    Their results were eye-opening. The team found that a DNA sample from an American of Northern European heritage could be tracked successfully to a third-cousin distance of its owner in 60 percent of cases. A comparable analysis on the MyHeritage site had similar results. (The analysis focused on Americans of North European background because 75 percent of the users on GEDmatch and other genealogy sites belong to that demographic.)

    Some experts have raised questions about the study’s methodology. Its sample size was small, and it didn’t factor in that more than one match is often required to identify a suspect.

    CeCe Moore, a genetic genealogist with Parabon, a forensic consulting firm, also expressed worry in an email that the Science paper may obscure the difficulty involved in puzzling out someone’s identity; it takes a highly skilled expert to build a family tree from the initial genetic clues.

    Still, she said, the takeaway of the study “is not news to us.” In recent months Ms. Moore has been involved in a dozen murder and sexual assault cases that used GEDmatch to identify suspects. Of the 100 crime-scene profiles that her firm had uploaded to GEDmatch by May, half were obviously solvable, she said, and 20 were “promising.”

    “I think it’s a strong and convincing paper,” said Graham Coop, a population genetics researcher at the University of California, Davis. In a blog post in May, Dr. Coop calculated just how lucky investigators had been in the Golden State killer case. He reached a statistical conclusion similar to Dr. Erlich’s: society is not far from being able to identify 90 percent of people through the DNA of their cousins in genealogical databases.

    “This is this moment of, wow, oh, this opens up a lot of possibilities, some of which are good and some are more questionable,” he said.

    In an alarming result, the Science study found that a supposedly “anonymized” genetic profile taken from a medical data set could be uploaded to GEDmatch and positively identified. This shows that an individual’s private health data might not be so private after all.

    #Génomique #ADN #Vie_privée


  • New studies show how easy it is to identify people using genetic databases - STAT
    https://www.statnews.com/2018/10/11/genetic-databases-privacy

    n recent months, consumer genealogy websites have unleashed a revolution in forensics, allowing law enforcement to use family trees to track down the notorious Golden State Killer in California and solve other cold cases across the country. But while the technique has put alleged killers behind bars, it has also raised questions about the implications for genetic privacy.

    According to a pair of studies published Thursday, your genetic privacy may have already eroded even further than previously realized.

    In an analysis published in the journal Science, researchers used a database run by the genealogy company MyHeritage to look at the genetic information of nearly 1.3 million anonymized people who’ve had their DNA analyzed by a direct-to-consumer genomics company. For nearly 60 percent of those people, it was possible to track down someone whose DNA was similar enough to indicate they were third cousins or closer in relation; for another 15 percent of the samples, second cousins or closer could be found.

    Yaniv Erlich, the lead author on the Science paper, said his team’s findings should prompt regulators and others to reconsider the assumption that genetic information is de-identified. “It’s really not the case. At least technically, it seems feasible to identify some significant part of the population” with such investigations, said Erlich, who’s a computer scientist at Columbia University and chief science officer at MyHeritage.

    The Science paper counted 12 cold cases that were solved between April and August of this year when law enforcement turned to building family trees based on genetic data; a 13th case was an active investigation.

    The most famous criminal identified this way: the Golden State Killer, who terrorized California with a series of rapes and murders in the 1970s and 1980s. With the help of a genetic genealogist, investigators uploaded a DNA sample collected from an old crime scene to a public genealogy database, built family trees, and tracked down relatives. They winnowed down their list of potential suspects to one man with blue eyes, and in April, they made the landmark arrest.

    To crack that case, the California investigators used GEDmatch, an online database that allows people who got their DNA analyzed by companies like 23andMe and Ancestry to upload their raw genetic data so that they can track down distant relatives. MyHeritage’s database — which contains data from 1.75 million people, mostly Americans who’ve gotten their DNA analyzed by MyHeritage’s genetic testing business — works similarly, although it explicitly prohibits forensic searches. (23andMe warns users about the privacy risks of uploading their genetic data to such third party sites.)

    “For me, these articles are fascinating and important and we shouldn’t shy away from the privacy concerns that these articles raise. But at the same time, we should keep in mind the personal and societal value that we believe that we are accruing as we make these large collections,” said Green, who was not involved in the new studies and is an adviser for genomics companies including Helix and Veritas Genetics.

    He pointed to the potential of genomics not only to reunite family members and put criminals behind bars, but also to predict and prevent heritable diseases and develop new drugs.

    As with using social media and paying with credit cards online, reaping the benefits of genetic testing requires accepting a certain level of privacy risk, Green said. “We make these tradeoffs knowing that we’re trading some vulnerability for the advantages,” he said.

    #Génomique #ADN #Vie_privée


  • Nos plaintes contres les GAFAM avancent !
    https://www.laquadrature.net/fr/plaintes_gafam_2

    10 octobre 2018 - Nous venons de recevoir des nouvelles de la CNIL au sujet de nos plaintes collectives, engagées en mai 2018 contre Google, Apple, Facebook, Amazon et Microsoft. Ces nouvelles sont encourageantes. Les plaintes contre Apple, Facebook et Microsoft ont été transmises à l’autorité irlandaise de protection des données, qui a commencé l’instruction des dossiers. Pourquoi est-ce l’autorité irlandaise qui instruira nos plaintes, plutôt que la CNIL française, à qui nos plaintes étaient destinées ? Comme nous le rappelions déjà en mai dernier, le RGPD a posé un nouveau cadre de coopération entre les différentes « CNIL » européennes : si une entreprise collecte des données dans plusieurs pays européens, les CNIL de tous ces pays doivent collaborer pour contrôler cette entreprise. La CNIL (...)

    #Vie_privée_-_Données_personnelles


  • Virulent, le cofondateur de #WhatsApp dévoile les raisons de sa rupture avec Facebook - Business - Numerama
    https://www.numerama.com/business/423192-virulent-le-cofondateur-de-whatsapp-devoile-les-raisons-de-sa-ruptu

    Si Brian Acton a pu devenir milliardaire grâce à l’entreprise américaine (#Facebook a acquis en 2014 la messagerie instantanée pour 22 milliards de dollars, en cash et en actions), c’est d’après lui au prix du sacrifice de la vie privée de sa communauté : « en fin de compte, j’ai vendu mon entreprise. J’ai vendu la #vie_privée de mes utilisateurs pour un plus grand profit. J’ai fait un choix et un compromis. Et je vis avec ça tous les jours ».

    #RDNSLS


  • Intéressant article de la #CNIL à propos de la #chaîne_de_blocs et de ses conséquences pour la protection des #données_personnelles. Je ne suis pas d’accord avec tout mais c’est bien fait, et par des gens qui connaissent leur sujet.

    https://www.cnil.fr/sites/default/files/atoms/files/la_blockchain.pdf

    (Voir aussi https://www.cnil.fr/fr/blockchain-et-rgpd-quelles-solutions-pour-un-usage-responsable-en-presence-de-d )

    #vie_privée


  • Tim Berners-Lee veut redonner aux internautes le contrôle sur leurs données, Actu
    https://business.lesechos.fr/entrepreneurs/actu/0302343149198-tim-berners-lee-veut-redonner-aux-internautes-le-con

    « Le Web est devenu une machine produisant de l’injustice et de la division, influencée par des forces puissantes qui l’utilisent pour imposer leurs propres agendas. » C’est avec ce constat que Tim Berners-Lee, l’un des inventeurs du Web, a annoncé vendredi le lancement d’Inrupt, une nouvelle start-up dédiée à redonner aux internautes le contrôle sur leurs données, dans laquelle il est directeur technologique. « Dévasté » par les récents scandales sur la vie privée impliquant des géants du Web comme Facebook , le chercheur britannique a décidé de prendre un congé sabbatique du MIT et de diminuer son implication dans le World Wide Web Consortium (W3C), l’organisme en charge d’élaborer les standards du Web, pour se consacrer entièrement à ce projet.

    Celui-ci vise à développer une communauté de développeurs autour d’une nouvelle architecture open-source que Tim Berners-Lee a mis sur pied au cours des dernières années au MIT. Baptisée Solid, celle-ci inverse « le modèle actuel où les utilisateurs donnent leurs données personnelles à des géants du numérique », explique-t-il dans [[https://medium.com/@timberners_lee/one-small-step-for-the-web-87f92217d085?source=user_profile---------2------- .

    Avec Solid, chaque individu garde le contrôle sur ses contacts, ses photos, ses données bancaires ou de santé. Il les conserve dans un ou plusieurs portefeuilles numériques, surnommés des « pods », et choisit où les stocker - sur ses terminaux ou sur le serveur d’un fournisseur - et à quelle application y donner accès. Avec ce système, la portabilité des données n’est plus un problème : différentes applications peuvent accéder aux photos de vacances ou aux playlists musicales d’un internaute au même moment s’il décide de leur donner accès à son « pod ».
    Stade expérimental

    Tim Berners-Lee a décidé il y a un an de créer une entreprise pour obtenir les ressources nécessaires pour accélérer le projet. Il s’est associé à John Bruce, un entrepreneur dont la dernière société a été rachetée par IBM, qui occupe le poste de directeur général. La société a levé « quelques millions de dollars » auprès de Glasswing Ventures, un fonds qui avait investi dans sa précédente entreprise, raconte-t-il. Elle se prépare à un nouveau tour de table pour lever plus d’argent.

    Pour le moment, la plateforme en est encore à un stade expérimental. Son succès dépendra de sa capacité à attirer des développeurs prêts à construire des applications pour la plateforme. Les incitations financières pour le faire sont minimes aujourd’hui, la collecte des données étant centrale au business model des services les plus utilisés, qui se rémunèrent via la publicité ciblée.
    Vers un modèle payant

    Solid semble plutôt imaginer un modèle payant, où les internautes accepteraient de payer pour des services respectueux de leur vie privée. John Bruce souligne aussi que ce système privilégiant le stockage de données au sein d’un même « pod » pourrait au final éviter les silos et donner aux codeurs « l’accès à une masse de données plus large qu’aujourd’hui, permettant de développer des nouveaux services ». Des entreprises s’y intéressent pour mieux exploiter les données enfermées dans les différents logiciels utilisés en interne.

    Inrupt n’est la seule start-up à proposer un projet de ce genre. Mais la majorité des autres sociétés s’appuient sur la blockchain, alors qu’Inrupt repose, elle, sur les standards du Web existants. « Nous ne sommes pas dépendants d’un groupe d’individus consentant aux règles d’un livre de comptes ou de la puissance informatique de mineurs », souligne John Bruce.

    #Tim_Berners_Lee #Inrupt #Solid #Vie_privée


  • En Nouvelle-Zélande, fournissez vos mots de passe aux douaniers ou payez une amende
    https://www.nextinpact.com/news/107120-en-nouvelle-zelande-fournissez-vos-mots-passe-aux-douaniers-ou-pa

    Si une personne refuse « sans raison valable » de se conformer à cette exigence, elle risquera jusqu’à 5 000 dollars néo-zélandais d’amende, soit tout de même plus de 2 800 euros.

    Mieux encore, le refus de fournir « ces informations d’accès » pourra à lui seul justifier des investigations plus approfondies. Le matériel pourra dans ce cadre être copié, analysé, évalué. Une véritable mise à nu numérique.

    Le Washington Post rappelle que les douaniers avaient déjà la possibilité de saisir du matériel, mais cette loi de 2018 a considérablement augmenté leurs pouvoirs d’investigation. « Il est peu probable que les voyageurs remarquent une grande différence aux frontières, les dispositions existantes étant reconfirmées ou clarifiées » s’est empressée de tempérer le service des douanes dans un communiqué.
    « Une grave ingérence dans la vie privée »

    Pour le NZ Council for Civil Liberties (Conseil néo-zélandais des libertés civiles), néanmoins, « les smartphones contiennent une grande quantité d’informations privées extrêmement sensibles, notamment des courriers électroniques, des lettres, des dossiers médicaux, des photos personnelles, voire très personnelles. Permettre à la douane de revendiquer le droit d’examiner et capturer ces informations est une grave ingérence dans la vie privée » commente Thomas Beagle, son président.

    Cette sentinelle des libertés et des droits fondamentaux remarque à juste titre que si les douaniers doivent justifier d’un motif raisonnable, ils n’ont pas à le détailler avant la saisie et l’analyse de l’appareil. « Cette loi donne en réalité aux agents le pouvoir de saisir et forcer le déverrouillage des smartphones sans justification ni appel - et c’est exactement ce que cette administration a toujours souhaité ».

    #Vie_privée #Société_surveillance


  • Why Data Privacy Based on Consent Is Impossible
    https://hbr.org/2018/09/stop-thinking-about-consent-it-isnt-possible-and-it-isnt-right

    For a philosopher, Helen Nissenbaum is a surprisingly active participant in shaping how we collect, use, and protect personal data. Nissenbaum, who earned her PhD from Stanford, is a professor of information science at Cornell Tech, New York City, where she focuses on the intersection of politics, ethics, and values in technology and digital media — the hard stuff. Her framework for understanding digital privacy has deeply influenced real-world policy.

    HBR senior editor Scott Berinato spoke with Nissenbaum about the concept of consent, a good definition of privacy, and why privacy is a moral issue. The following excerpts from their conversation have been edited for clarity and length.

    HBR: You often sound frustrated when you talk about the idea of consent as a privacy mechanism. Why?

    Nissenbaum: Oh, it’s just such a [long pause] — look, the operationalization of consent is just so, so crummy. For example, as part of GDPR, we’re now constantly seeing pop-ups that say, “Hey, we use cookies — click here.” This doesn’t help. You have no idea what you’re doing, what you’re consenting to. A meaningful choice would be, say, “I’m OK that you’re using cookies to track me” or “I don’t want to be tracked but still want to enjoy the service” or “It’s fine to use cookies for this particular transaction, but throw unnecessary data out and never share it with others.” But none of these choices are provided. In what sense is this a matter of choosing (versus mere picking)?

    The farce of consent as currently deployed is probably doing more harm as it gives the misimpression of meaningful control that we are guiltily ceding because we are too ignorant to do otherwise and are impatient for, or need, the proffered service. There is a strong sense that consent is still fundamental to respecting people’s privacy. In some cases, yes, consent is essential. But what we have today is not really consent.

    Even if you tried to create totally transparent consent, you couldn’t. Well-meaning companies don’t know everything that happens with the data they collect, particularly those that have succumbed, against their better judgment, to the pressures of online tracking and behavioral targeting. They don’t know where the data is going or how it will be utilized. It’s an ever-changing landscape. On the one hand, requiring consent for every use isn’t reasonable and may prevent as many good outcomes as bad ones. Imagine if new science suggests a connection between a property, or cluster of properties, and a particular cancer treatment. Returning for consent may impose obstacles that are impossible to overcome.

    But on the other hand, what exactly does it mean to grant consent no matter what uses may come up in the future? Think about a surgeon explaining a procedure to a patient in great medical detail and then asking, “Are you OK with this?” We kid ourselves if we believe that consent is all that stands in the way of surgery and outcome. Most of us say OK not because we deeply grasp the details and ramifications but because we trust the institutions that educate and train surgeons, the integrity of the medical domain, and — at worst — the self-interest of the hospitals and surgeons wishing for positive acclaim and to avoid being sued.

    It’s not that we don’t know what consent means; it’s that getting to a point where we understand the true sense of what consent means is impossible.

    Annexe : devinez chez quel éditeur le livre Obfuscation d’Helen Nissenbaum va paraître cet automne ?

    #Helen_Nissenbaum #Vie_privée #Consentement


  • #Cloud_Act : un député dénonce « l’#ingérence numérique » des #États-Unis dans la #vie_privée des Français - Politique - Numerama
    https://www.numerama.com/politique/385217-cloud-act-un-depute-denonce-lingerence-numerique-des-etats-unis-dan

    Depuis le 23 mars 2018, les États-Unis sont dotés dans leur arsenal juridique d’une nouvelle loi intitulée Cloud Act (Clarifying Lawful Overseas Use of Data Act). Avec cette législation, il s’agit pour Washington de disposer des outils adéquats pour contraindre les firmes américaines à fournir des données stockées sur des serveurs, en cas de mandat ou d’assignation en justice.

    Y compris lorsque lesdits serveurs se trouvent dans des pays étrangers.

    #Palantir : l’œil américain du #renseignement français
    https://www.franceinter.fr/emissions/secrets-d-info/secrets-d-info-22-septembre-2018

    Le big data constitue aujourd’hui « le pétrole » des services de renseignements. Depuis 2016, une société américaine liée à la #CIA, Palantir, travaille pour le renseignement intérieur français, la DGSI. Y a-t-il un risque de fuite de données ? Enquête sur l’une des start-up les plus puissantes du monde.

    #France