• Privacy is Priceless, but Signal is Expensive

    Signal est un service centralisé et ne peut alors pas satisfaire toutes les exigences d’une communication parfaitement privée. Pourtant Signal permet une communication assez protégée sous condition d’utiliser un portable qui n’espionne pas ses utilisateurs. Malheureusement il n’ y a que peu de smartphones dans cette catégorie. GrapheneOS est une bonne solution - en connaissez vous d’autres ? Des systèmes Android sécurisés qui ne transmettent pas de données à Google et d’autres vampires de données ?

    Meredith Whittaker and Joshua Lund on 16 Nov 2023

    Signal is the world’s most widely used truly private messaging app, and our cryptographic technologies provide extra layers of privacy beyond the Signal app itself. Since launching in 2013, the Signal Protocol—our end-to-end encryption technology—has become the de facto standard for private communication, protecting the contents of billions of conversations in WhatsApp, Google Messages, and many others. Signal also continues to invest in research and development in the pursuit of extending communications privacy. This commitment underlies our recent work to add a layer of quantum resistance to the Signal Protocol, and our previous work on metadata protection technologies that help keep personal details like your contact list, group membership, profile name, and other intimate information secure. This singular focus on preserving the ability to communicate privately is one reason that we work in the open, documenting our thinking and making our code open source and open to scrutiny—so you don’t have to take our word for it.

    Signal is also a nonprofit, unlike almost every other consumer tech company.

    This provides an essential structural safeguard ensuring that we stay true to our privacy-focused mission. To put it bluntly, as a nonprofit we don’t have investors or profit-minded board members knocking during hard times, urging us to “sacrifice a little privacy” in the name of hitting growth and monetary targets. This is important in an industry where “free” consumer tech is almost always underwritten by monetizing surveillance and invading privacy. Such practices are often accompanied by “growth hacking” and engagement maximization techniques that leverage dark patterns to keep people glued to feeds and notifications. While Signal is also free to use, we reject this kind of manipulation, focusing instead on creating a straightforward interpersonal communications app. We also reject business models that incentivize such practices.

    Instead of monetizing surveillance, we’re supported by donations, including a generous initial loan from Brian Acton. Our goal is to move as close as possible to becoming fully supported by small donors, relying on a large number of modest contributions from people who care about Signal. We believe this is the safest form of funding in terms of sustainability: ensuring that we remain accountable to the people who use Signal, avoiding any single point of funding failure, and rejecting the widespread practice of monetizing surveillance.

    But our nonprofit structure doesn’t mean it costs less for Signal to produce a globally distributed communications app. Signal is a nonprofit, but we’re playing in a lane dominated by multi-billion-dollar corporations that have defined the norms and established the tech ecosystem, and whose business models directly contravene our privacy mission. So in order to provide a genuinely useful alternative, Signal spends tens of millions of dollars every year. We estimate that by 2025, Signal will require approximately $50 million dollars a year to operate—and this is very lean compared to other popular messaging apps that don’t respect your privacy.

    Here we review some of these costs and where this money goes, in the name of providing more transparency into Signal. But we hope to do more than that. Where money goes and how it’s made is a bit of a taboo in tech, something that most tech companies avoid talking about. The actual costs of consumer tech are generally hidden behind stories of innovation and the word “free,” and the connection between the product marketing of a highly profitable tech industry and the ingress and egress of profit and revenue is usually unclear. We believe a material map of these dynamics can help clarify just what is required to fulfill the dream of privacy-preserving alternative technology, and contribute to establishing a solid foundation from which we can grow alternatives that contest tech surveillance and the incentives behind it.

    This is not a comprehensive overview—this post isn’t meant to provide a full accounting or to review every line item in detail. Instead, we focus on illustrative examples, looking at infrastructure and labor in particular. We’ll also explore average costs that in practice vary dynamically in relation to factors that are often outside of our control.

    Infrastructurally Different

    We’ll start with an overview of some of Signal’s biggest infrastructural costs—what we pay for the utilities and services that let Signal reach you. These include the temporary storage of end-to-end encrypted data for message delivery; the global server network that processes billions of requests every day; the registration fees that cover the delivery of verification codes during the sign-up process to help verify phone numbers and prevent spam accounts; the bandwidth that is required to efficiently route end-to-end encrypted messages and calls around the world; and some of the additional services that keep everything running smoothly. We’ll dive into each of these in more detail, but here’s a quick breakdown:

    Storage: $1.3 million dollars per year.
    Servers: $2.9 million dollars per year.
    Registration Fees: $6 million dollars per year.
    Total Bandwidth: $2.8 million dollars per year.
    Additional Services:

    $700,000 dollars per year.

    Current Infrastructure Costs (as of November 2023): Approximately $14 million dollars per year.
    The Cost of Storing Nothing and Serving Everyone

    Data is profitable, and we’re a nonprofit focused on collecting as little data as possible.

    Most tech companies collect and create as much data as they can. They build large data warehouses, and then later invent new terms like “data lake” when their unquenchable thirst for more of your private information can no longer fit within the confines of a single warehouse. Their default move is to store everything for as long as they can in an easily accessible and unencrypted format, suffering data breach, after data breach, after data breach, hoping to monetize this data by indirectly (or directly) selling it to advertisers or using it to train AI models. Again, data is profitable.

    In contrast, Signal’s default move is to end-to-end encrypt everything that we possibly can and to store as little as possible—all while making sure your messages are delivered promptly and your calls are clear and free of delays. We do this by taking advantage of globally distributed hosting infrastructure and by paying for significant amounts of bandwidth from some of the top providers in the world.

    Just like everything else in Signal, messages and files are always end-to-end encrypted. When you send a message, the Signal service temporarily queues that message for delivery. As soon as your message is delivered, that small bundle of encrypted data (i.e. your message) can be dropped from the queue. The storage of end-to-end encrypted files is temporary too, and any undelivered end-to-end encrypted data is automatically purged after a period of inactivity. Even though everything is only temporary, this storage still costs Signal around $1.3 million dollars per year.

    This is a lot of money, although it’s less than it would cost if we stored everything forever. But unlike the tech companies that collect and store everything, we don’t have (and do not want to have) any surveillance data to sell or use to recoup these costs. We can’t read or access any end-to-end encrypted messages because the keys that are required to decrypt them are in your hands, not ours. And it’s not just about your messages. Signal also uses our metadata encryption technology to protect intimate information about who is communicating with whom—we don’t know who is sending you messages, and we don’t have access to your address book or profile information. We believe that the inability to monetize encrypted data is one of the reasons that strong end-to-end encryption technology has not been widely deployed across the commercial tech industry.

    In order to provide a globally accessible, reliable, and high-performance communications service for the many millions of people around the world who depend on Signal, it’s necessary for Signal’s servers to be globally distributed. Having a geographically distributed network of servers is particularly important for end-to-end encrypted voice and video calls, because latency can result in audio delays or degraded video connections that quickly make the app unusable for real-time communication.

    Because everything in Signal is end-to-end encrypted, we can rent server infrastructure from a variety of providers like Amazon AWS, Google Compute Engine, Microsoft Azure, and others while ensuring that your messages and calls remain private and secure. We can’t access them, and neither can the companies that provide any of the infrastructure we rent. As a small nonprofit organization, we cannot afford to purchase all of the physical computers that are necessary to support everyone who relies on Signal while also placing them in independent data centers around the world. Only a select few of the very largest companies globally are still capable of doing this, which is a hallmark of a troublingly concentrated industry.

    Signal’s addition of novel privacy-preserving features also affects our server costs. To pick one example, we developed a new approach to private contact discovery in 2017 that uses a trusted execution environment. This made us the first large-scale messaging app to let people automatically find their friends and contacts without revealing their address book to us, keeping these connections private. Because other mainstream apps don’t have this layer of privacy protection in place, they can often access details about your network and relationships without restrictions, and many of them store this highly sensitive information for later use.

    When we first deployed this system in 2017, only a few servers were necessary. But as the number of people using Signal increased, the number of servers required to support private contact discovery also rose. At its peak, nearly 600 servers were dedicated to private contact discovery alone, at a total cost of more than $2 million dollars per year.

    This significant cost would have continued to rise. However, thanks to algorithmic research advances and hardware updates, we’ve been able to reduce the total number of private contact discovery servers to around 10 total—despite the fact that the service is handling more traffic than ever. A significant amount of money and engineering resources have been dedicated to ensuring that your address book remains completely inaccessible to us, and Signal will continue to push the envelope and introduce new techniques to enhance your privacy even when the initial costs are high.
    Registration Fees

    Signal incurs expenses when people download Signal and sign up for an account, or when they re-register on a new device. We use third-party services to send a registration code via SMS or voice call in order to verify that the person in possession of a given phone number actually intended to sign up for a Signal account. This is a critical step in helping to prevent spam accounts from signing up for the service and rendering it completely unusable—a non-trivial problem for any popular messaging app.

    Signal’s registration service routes registration codes over multiple telephony providers to optimize delivery across the globe, and the fees we pay to third-party vendors for every verification code we send can be very high. This is in part, we believe, because legacy telecom operators have realized that SMS messages are now used primarily for app registration and two-factor authentication in many places, as people switch to calling and texting services that rely on network data. In response to increased verification traffic from apps like Signal, and decreased SMS revenue from their own customers, these service providers have significantly raised their SMS rates in many locations, assuming (correctly) that tech companies will have to pay anyway.

    The cost of these registration services for verifying phone numbers when people first install Signal, or when they re-register on a new device, currently averages around $6 million dollars per year.

    These costs vary dramatically from month to month, and the rates that we pay are sometimes inflated due to “toll fraud”—a practice where some network operators split revenue with fraudulent actors to drive increased volumes of SMS and calling traffic on their network. The telephony providers that apps like Signal rely on to send verification codes during the registration process still charge their own customers for this make-believe traffic, which can increase registration costs in ways that are often unpredictable. Of course, Signal does everything we can to reduce or eliminate the impact of toll fraud. We work closely with our voice and SMS verification providers to detect and shut down fraudulent registrations as quickly as possible. But it’s still a game of cat and mouse, with unavoidable expenses along the way.
    The Going Rate for Transfer Rates

    You are probably familiar with the concept of paying for bandwidth in the form of buying a data plan from your cellular provider or signing up with an Internet Service Provider (ISP) for your home. But it may surprise you to learn that every website, app, and service also pays for the bandwidth they use whenever you connect to them.

    Some pay more than others. Most of the major tech companies (like Amazon, Google, and Microsoft) own and operate their own data centers. After spending billions of dollars to build massive hosting facilities, they install their own fiber optic cables and custom networking equipment. This also means they get to earn a lot of money by charging others for the privilege of using that equipment.

    Smaller organizations like Signal can’t afford to build matching infrastructure from scratch, so we (along with almost every startup and tech company) pay rent to the big players in order to access the bandwidth we need.

    Millions of people use Signal every day, and it takes a lot of bandwidth to provide a fast and reliable service. Signal spends around $2.8 million dollars per year on bandwidth to support sending messages and files (such as photos, videos, voice notes, documents, etc.) and to enable voice and video calls.

    Voice and video calls require significantly more bandwidth than text messages, and Signal’s end-to-end encrypted calling functionality is one of the most expensive services that we provide. Signal also goes far beyond other messaging apps when it comes to protecting your privacy during voice and video calls, and we do this in ways that substantially increase how much bandwidth we use in order to provide a high-quality calling experience.

    To take one example, Signal always routes end-to-end encrypted calls from people who aren’t in your contacts through a relay server that obscures IP address information.

    Almost none of our competitors do this, and Signal’s default behavior is much more expensive than the alternative. Automatically relaying 1-on-1 voice and video calls from unknown contacts (instead of always using a peer-to-peer connection whenever possible) provides an extra layer of privacy, but results in considerably higher bandwidth costs for Signal’s calling-related relay servers. At current traffic levels, the amount of outbound bandwidth that is required to support Signal voice and video calls is around 20 petabytes per year (that’s 20 million gigabytes) which costs around $1.7 million dollars per year in bandwidth fees just for calling, and that figure doesn’t include the development costs associated with hiring experienced engineers to maintain our calling software, or the cost of the necessary server infrastructure to support those calls.
    The Human Touch

    Signal isn’t just a collection of privacy-preserving services that route end-to-end encrypted messages and calls around the world. It’s also a set of cross-platform apps and modular development components (commonly called libraries) that make this type of private communication possible in the first place. Because the norm is surveillance, we’re often required to create or modify our own libraries from scratch, swapping in privacy instead of using more common frameworks that assume surveillant defaults. Swimming against the tide of an ecosystem whose incentives and infrastructure promote surveillance and privacy invasions is, of course, more time-intensive and more expensive, and requires dedicated and experienced people.

    First, we have three distinct client teams, one for each platform (Android, Desktop, and iOS). These teams are constantly working: adjusting to operating system updates, building new features, and making sure the app works on a wide variety of devices and hardware configurations. We also have dedicated engineering teams that handle the development and maintenance of the Signal Server and all of its infrastructure, our calling libraries like RingRTC, and core libraries like libsignal. These also need constant development and monitoring.

    Product and design teams help shape the future of the app and determine how it will look and function, while our localization team coordinates translation efforts across more than sixty languages. We even have a full-time, in-house support group that interfaces with people who use Signal and provides detailed technical feedback and real-time troubleshooting information to every other team. This is an essential function, particularly at Signal, because we don’t collect analytics or telemetry data about how people are using Signal.

    This is a lot of work, and we do it with a small and mighty team. In total, around 50 full-time employees currently work on Signal, a number that is shockingly small by industry standards. For example, LINE Corporation, the developers of the LINE messaging app popular in Japan, has around 3,100 employees,
    while the division of Kakao Corp that develops KakaoTalk, a messaging app popular in Korea, has around 4,000 employees. Employee counts at bigger corporations like Apple, Meta, and Google’s parent company (Alphabet) are much, much higher.

    To sustain our ongoing development efforts, about half of Signal’s overall operating budget goes towards recruiting, compensating, and retaining the people who build and care for Signal. When benefits, HR services, taxes, recruiting, and salaries are included, this translates to around $19 million dollars per year.

    We are proud to pay people well. Our goal is to compensate our staff at as close to industry wages as possible within the boundaries of a nonprofit organization. We know that we can’t provide equity, expensive playpen offices, or other benefits common to large tech companies. We also know that we need to recruit and retain a highly experienced and specialized workforce in an extremely competitive industry if we’re going to offer a service that provides a meaningful alternative to apps with far more people and resources. And we don’t believe that precarity should be the cost of doing good. Compared to most tech companies, Signal’s numbers are a drop in the bucket.

    Growth in Signal translates into increased infrastructure costs, and having more infrastructure requires more labor. As of November 2023, Signal’s server network is regularly responding to around 100,000 requests per second, and we routinely break our previous records. A funny thing happens when a globally accessible service starts handling billions of requests every day. Suddenly one-in-a-million possibilities are no longer unique or rare, and unlikely situations become more and more common as Signal grows. It’s not unusual for our engineers to do things like write custom code to reproduce an esoteric and complicated IPv6 connectivity issue that’s affecting people running an arcane operating system configuration in specific regions, but only when connected via a certain set of internet service providers.

    Troubleshooting such infrastructure issues can be very expensive, because isolating a problem and developing a fix can take a lot of time and expertise.

    Identifying and fixing arcane problems is not the only thing that takes time and skill. In the context of building for privacy, adding a common feature or service in a way that avoids surveillance frequently requires significant work and creativity. To take one example, profile pictures and profile names are always end-to-end encrypted in Signal. This means that Signal does not have access to your profile name or chosen profile photo. This approach is unique in the industry. In fact, it has been more than six years since we first announced this additional layer of protection, and as far as we know none of our competitors have yet adopted it. Other messengers can easily see your profile photo, profile name, and other sensitive information that Signal cannot access. Our choice here reflects our staunch commitment to privacy, but it also means that it took Signal more effort to implement support for profile photos. Instead of a weekend project for a single engineer, our teams were required to develop new approaches and concepts within the codebase (like profile keys), which they worked to roll out across multiple platforms after an extended testing period.

    The same dynamic played out again when Signal introduced support for animated GIF searches on Android and iOS. Instead of quickly and easily integrating the standard GIF search SDK that most other apps were using, engineers spent considerable time and creativity developing another unique privacy-preserving technique that hides GIF search terms from Signal’s servers, while also hiding who is searching for those terms from the GIF search engine itself. We later expanded those techniques to further obfuscate GIF search information by obscuring the amount of traffic that passes through the proxied connection.

    When Meta acquired GIPHY, and many other apps were scrambling to contend with the privacy implications of the deal, Signal employees slept soundly knowing that we had already built this feature correctly several years earlier.

    Even more recently, Signal has started taking steps to protect today’s conversations from future threats by adding post-quantum resistance to the Signal Protocol. The financial costs associated with these research and development initiatives are substantial. They’re also essential for building privacy-preserving technology in a dynamic industry where surveillance is the norm.

    By offering a competitive compensation package, Signal helps make it easy for people to choose to develop privacy-preserving technology that benefits the world instead of going to work for the surveillance-advertising-industrial complex. We’re proud of our healthcare plans, family-friendly policies like extended parental leave, flexible schedules, and the many other benefits that help make Signal a great place to work.

    These things cost money, but a world where Signal can attract talented people to work on privacy-preserving technology is a world that looks a lot more attractive.
    Future Tense

    We hope that this cursory tour of some of Signal’s operations and costs helps provide a greater understanding of Signal’s unique place in the tech ecosystem, and of the tech ecosystem itself.

    Our goal of developing an open source private messenger that is supported and sustained by small donations is both highly ambitious and, we believe, existentially important. The cost of most consumer technology is underwritten by surveillance, which has allowed people to assume that “free” is the default, and a handful of industry players have accrued eye-watering amounts of personal data and the unprecedented power to use that data in ways that are shaping our lives and institutions globally.

    To put it another way, the social costs of normalized privacy invasion are staggeringly high, and maintaining and caring for alternative technology has never been more important.

    Signal is working to show that a different approach is possible—an approach that puts privacy at the center, and where organizations are accountable to the people who use and rely on their services, not to investors, or to the endless pursuit of growth and profit.

    Thank you for your support. It’s an honor and privilege to work on Signal every day, and we—very literally—couldn’t do it without you. Please consider donating to Signal via our website or learn how to give using the app.

    #communication #sécurité #messenger #Android #vie_privée #internet

  • Postes Canada recueille illégalement des renseignements personnels et les loue La Presse canadienne à Ottawa

    Le commissaire à la protection de la vie privée affirme que Postes Canada enfreint la loi en glanant des informations sur des enveloppes et des colis dans le but de dresser des listes d’envoi qu’elle loue à des entreprises.

    Le bureau de Philippe Dufresne affirme que les informations recueillies pour ce programme de « listes de marketing » comprennent des données sur l’endroit où vivent les individus et le type d’achats en ligne qu’ils effectuent, en fonction du destinateur des colis.

    Or, le commissaire a constaté que Postes Canada n’avait pas obtenu l’autorisation des Canadiens pour recueillir indirectement de tels renseignements personnels.

    Dans un rapport sur l’enquête de son bureau à Postes Canada, M. Dufresne affirme que cette pratique constitue une violation de l’article 5 de la Loi sur la protection des renseignements personnels.

    Le commissaire a recommandé à Postes Canada de cesser d’utiliser et de divulguer les renseignements personnels de cette manière jusqu’à ce que la société d’État puisse demander et obtenir le consentement des Canadiens.

    Mais le commissaire Dufresne affirme que Postes Canada a refusé de prendre cette mesure corrective et il l’exhorte à reconsidérer sa décision.

    #surveillance #flicage #Société #poste #informations_personnelles #vie_privée

    Source : https://www.ledevoir.com/societe/798445/postes-canada-recueille-illegalement-renseignements-personnels-loue

  • *privacy not included | Shop smart and safe | Mozilla Foundation

    It’s worth reading the review in full, but you should know it includes your “sexual activity.” Not to be out done, Kia also mentions they can collect information about your “sex life” in their privacy policy. Oh, and six car companies say they can collect your “genetic information” or “genetic characteristics.” Yes, reading car privacy policies is a scary endeavor.

  • J’ai testé l’appli Exodus Privacy
    Je ne sais pas ce qui m’a pris, j’avais envie de savoir ce qu’il en était.

    A comme Arte ou ATInternet

    Le scan effectué sur mon téléphone par Exodus retourne ses résultats par ordre alphabétique. Ainsi, j’ai en premier lieu découvert que l’appli d’Arte (le média franco-allemand de service public) contenait six traqueurs différents. Parmi eux, celui émis par une grosse firme appelée Nielsen, qui promet de « révéler le sentiment du consommateur face à sa situation financière, d’en explorer le comportement et l’impact sur les dépenses, et son évolution dans le temps » (traduit de l’anglais).

    #surveillance #marketing #arte #vie_privee #privacy #services_publics #tracking

  • Rencontre avec Exodus Privacy : traquer les “trackers”

    On sait déjà, comme le dit l’adage, que « si c’est gratuit, c’est vous le produit » - ce qui se traduit pour beaucoup d’entre nous par l’idée un peu vague d’accepter de la publicité personnalisée. Les membres de l’association Exodus Privacy se sont donné la tâche de répertorier rigoureusement, parmi les différents « trackers » (pisteurs ou traqueurs en français) existants, ceux présents dans les applications gratuites installées sur les smartphones Android.


    #tracking #surveillance #smartphones #vie_privee #privacy

  • Worldcoin just officially launched. Here’s why it’s being investigated. | MIT Technology Review

    It’s a project that claims to use cryptocurrency to distribute money across the world, though its bigger ambition is to create a global identity system called “World ID” that relies on individuals’ unique biometric data to prove that they are humans. It officially launched on July 24 in more than 20 countries, and Sam Altman, the CEO of OpenAI and one of the biggest tech celebrities right now, is one of the cofounders of the project.

    The company makes big, idealistic promises: that it can deliver a form of universal basic income through technology to make the world a better and more equitable place, while offering a way to verify your humanity in a digital future filled with nonhuman intelligence, which it calls “proof of personhood.” If you’re thinking this sounds like a potential privacy nightmare, you’re not alone.

    “Our investigation revealed wide gaps between Worldcoin’s public messaging, which focused on protecting privacy, and what users experienced. We found that the company’s representatives used deceptive marketing practices, collected more personal data than it acknowledged, and failed to obtain meaningful informed consent.”

    What’s more, the company was using test users’ sensitive, but anonymized, data to train artificial intelligence models, but Eileen and Adi found that individuals did not know their data was being used that way.

    Importantly, a core objective of the Worldcoin project is to perfect its “proof of personhood” methodology, which requires a lot of data to train AI models. If its proof-of-personhood system becomes widely adopted, this could be quite lucrative for its investors, particularly during an AI gold rush like the one we’re seeing now.

    The company announced this week that it will allow other companies and governments to deploy its identity system.

    “Worldcoin’s proposed identity solution is problematic whether or not other companies and governments use it. Of course, it would be worse if it were used more broadly without so many key questions being answered,” says Eileen. “But I think at this stage, it’s clever marketing to try to convince everyone to get scanned and sign up so that they can achieve the ‘fastest’ and ‘biggest onboarding into crypto and Web3’ to date, as Blania told me last year.”

    #Biométrie #Vie_privée #Données_personnelles #Worldcoin #Proof_of_personhood

  • Un #Kit_pédagogique proposé par #Exodus_Privacy

    À l’heure où dans une dérive policière inquiétante on criminalise les personnes qui veulent protéger leur #vie_privée, il est plus que jamais important que soient diffusées à une large échelle les connaissances et les pratiques qui permettent de prendre … Lire la suite­­

    #Éducation #Enjeux_du_numérique #Interviews #Animation #ateliers #médiation_numérique #MeTaL_PoU #ViePrivee

  • « On parle d’un système de surveillance massif », dénonce un ancien analyste de données d’Apple

    C’est assez simple : il s’agissait d’écouter des enregistrements qui étaient réalisés à partir de l’assistant vocal d’Apple, l’assistant Siri. Ce qui veut dire qu’il y a bien des oreilles « humaines » derrière cet assistant vocal. L’idée, c’était d’améliorer le système pour éviter des erreurs de recherche. En tout cas, c’est ce que dit Apple. Mais en réalité, au vu des données qui sont collectées et qui sont recoupées, l’assistant vocal sert aussi à regrouper davantage d’informations et à informer, par exemple, le profil l’utilisateur. Pendant cette période, j’ai pu écouter tout ce que vous pouvez imaginer que quelqu’un dirait dans une situation très intime. J’ai entendu des gens qui parlaient de l’orientation politique, de leur affiliation syndicale, de leur sexualité, beaucoup aussi de leur situation personnelle.

  • EN GAV, t’es fiché·e – ÉPISODE 2 : les empreintes

    Après avoir dressé le bilan des évolutions juridiques concernant l’accès aux téléphones en garde à vue, nous revenons dans ce nouveau volet sur l’inscription généralisée des personnes arrêtées au fichier automatisé des empreintes digitales –…

    #Surveillance #Vie_privée_-_Données_personnelles

    • Me semble important à rappeler (les mises en gras initiales ont été, ci-dessous, modifiées par moi) :

      Pour être légale, elle [la prise d’empreintes numériques] doit remplir l’ensemble de ces conditions : que la personne concernée soit suspectée d’avoir commis un délit puni d’au moins trois ans d’emprisonnement (cinq pour les mineurs), qu’aucun autre moyen ne permette de justifier de l’identité de la personne, avoir l’autorisation écrite du Procureur de la République, que l’avocat·e soit présent, et que la contrainte soit strictement nécessaire et proportionnée (en tenant compte, théoriquement, de la vulnérabilité de la personne ainsi que de la situation particulière du ou de la mineur·e). Aussi, le Conseil constitutionnel a finalement exclu l’audition libre1 du champ des situations où la prise d’empreintes de force est autorisée, ne laissant cette opération possible « que » pendant les gardes à vue. La prise d’empreintes a enfin été modifiée par la LOPMI qui a discrètement donné une base juridique à la comparaison, au moment de leur inscription, des empreintes et des photographies avec les fichiers existants (pratique qui avait déjà cours). Pour rappel, ces données biométriques sont ensuite conservées au FAED entre 15 à 25 ans selon l’infraction (pour laquelle, à ce stade, la personne n’a même pas été encore jugée). [...]

      Dans les commissariats, la menace du recours à la force est couramment employée à l’encontre des personnes gardées à vue afin de leur faire accepter le fichage au FAED, y compris pour les personnes qui portent sur elles des papiers d’identité et sont donc censées échapper à la contrainte.

      Mais au-delà des menaces et des intimidations, des violences physiques ont également été constatées, particulièrement à Paris. Hanna Rajbenbach, membre elle aussi du collectif d’avocat·es à l’origine du dépôt d’une centaine de plaintes concernant les GAV arbitraires en atteste : « Il y a des violences tout à fait illégitimes exercées : des personnes ont été par exemples tasées ou se sont retrouvées la tête écrasée au sol en vue de procéder au relevé de leurs empreintes digitales. » [...]

      Ainsi l’État est prêt à brutaliser, à taser et à faire usage de ce qui est somme toute une forme de torture sur des personnes en garde à vue pour s’assurer que celles-ci seront fichées.

      Un exemple des limites de l’approche légaliste dans la lutte sociale, surtout dans la séquence actuelle.

  • Infrastructures numériques de communication pour les anarchistes (et tous les autres…) – Framablog


    Nous avons des adversaires, ils sont nombreux. Depuis la première diffusion de Pretty Good Privacy (PGP) en 1991 par Philip Zimmermann, nombreuses furent les autorités publiques ou organisations privées à s’inquiéter du fait que des individus puissent échanger des messages rigoureusement indéchiffrables en vertu de lois mathématiques (c’est moins vrai avec les innovations en calculateurs quantiques). Depuis lors, les craintes ne cessèrent d’alimenter l’imaginaire du bloc réactionnaire.

    On a tout envisagé, surtout en se servant de la lutte contre le terrorisme et la pédopornographie, pour mieux faire le procès d’intention des réseaux militants, activistes, anarchistes. Jusqu’au jour où les révélations d’E. Snowden (et bien d’autres à la suite) montrèrent à quel point la vie privée était menacée (elle l’est depuis 50 ans de capitalisme de surveillance), d’autant plus que les outils de communication des multinationales du numérique sont largement utilisés par les populations.

    Les libertariens s’enivrèrent de cette soif de protection de nos correspondances. Ils y voyaient (et c’est toujours le cas) un point d’ancrage de leur idéologie capitaliste, promouvant une « liberté » contre l’État mais de fait soumise aux logiques débridées du marché. Dès lors, ceux qu’on appelle les crypto-anarchistes, firent feu de ce bois, en connectant un goût certain pour le solutionnisme technologique (blockchain et compagnie) et un modèle individualiste de communication entièrement chiffré où les crypto-monnaies remplissent le rôle central dans ce marché prétendu libre, mais ô combien producteur d’inégalités.

    Alimentant le mélange des genres, certains analystes, encore très récemment, confondent allègrement les anarchistes et les crypto-anarchistes, pour mieux dénigrer l’importance que nous accordons à la légitimité sociale, solidaire et égalitaire des protocoles de communication basés sur le chiffrement. Or, ce sont autant de moyens d’expression et de mobilisation démocratique et ils occupent une place centrale dans les conditions de mobilisation politique.

    Les groupes anarchistes figurent parmi les plus concernés, surtout parce que les logiques d’action et les idées qui y sont partagées sont de plus en plus insupportables aux yeux des gouvernements, qu’il s’agisse de dictatures, d’illibéralisme, ou de néofascisme. Pour ces adversaires, le simple fait d’utiliser des communications chiffrées (sauf quand il s’agit de protéger leurs corruptions et leurs perversions) est une activité suspecte. Viennent alors les moyens de coercition, de surveillance et de contrôle, la technopolice. Dans cette lutte qui semble sans fin, il faut néanmoins faire preuve de pondération autant que d’analyse critique. Bien souvent on se précipite sur des outils apparemment sûrs mais peu résilients. Gratter la couche d’incertitude ne consiste pas à décourager l’usage de ces outils mais montrer combien leur usage ne fait pas l’économie de mises en garde.

    Dans le texte qui suit, issu de la plateforme d’information et de médias It’s Going Down, l’auteur prend le parti de la prévention. Par exemple, ce n’est pas parce que le créateur du protocole Signal et co-fondateur de la Signal Foundation est aussi un anarchiste (quoique assez individualiste) que l’utilisation de Signal est un moyen fiable de communication pour un groupe anarchiste ou plus simplement militant. La convivialité d’un tel outil est certes nécessaire pour son adoption, mais on doit toujours se demander ce qui a été sacrifié en termes de failles de sécurité. Le même questionnement doit être adressé à tous les autres outils de communication chiffrée.

    C’est à cette lourde tâche que s’attelle l’auteur de ce texte, et il ne faudra pas lui tenir rigueur de l’absence de certains protocoles tels Matrix ou XMPP. Certes, on ne peut pas aborder tous les sujets, mais il faut aussi lire cet article d’après l’expérience personnelle de l’auteur. Si Signal et Briar sont les objets centraux de ses préoccupations, son travail cherche surtout à produire une vulgarisation de concepts difficiles d’accès. C’est aussi l’occasion d’une mise au point actuelle sur nos rapports aux outils de communication chiffrée et la manière dont ces techniques et leurs choix conditionnent nos communications. On n’oubliera pas son message conclusif, fort simple : lorsqu’on le peut, mieux vaut éteindre son téléphone et rencontrer ses amis pour de vrai…

    #guide #vie_privée #protections_des_données #saines_lectures

  • Infrastructures numériques de #Communication pour les #Anarchistes (et tous les autres…)

    Des moyens sûrs de communiquer à l’abri de la surveillance ? Évitons l’illusion de la confidentialité absolue et examinons les points forts et limites des applications… PRÉAMBULE Nous avons des adversaires, ils sont nombreux. Depuis la première diffusion de Pretty … Lire la suite­­

    #Enjeux_du_numérique #Militantisme #Traductions #Briar #Chiffrement #Crypto-anarchistes #Cwtch #guide #Modèle_de_menace #P2P #pair_à_pair #PGP #Réseau #Securite #Signal #TOR #vie_privée

  • Tesla workers shared images from car cameras, including “scenes of intimacy” | Ars Technica

    Qui dit caméra dit partage des images (+IA qui apprend) et qui dit vie privée se met le doigt dans l’oeil

    From 2019 to at least mid-2022, Tesla employees used an internal messaging system to share “sometimes highly invasive videos and images recorded by customers’ car cameras,” according to a lengthy Reuters report based on interviews with nine former Tesla employees.

    Although Tesla says its in-car cameras are “designed from the ground up to protect your privacy,” today’s Reuters report described employees as having easy access to the cameras’ output and sharing that freely with other employees:

    #Tesla #Vie_Privée #Caméra

  • Lausanne interdira la reconnaissance faciale dans l’espace public Marie Giovanola/lan - RTS

    Lausanne sera la première ville romande à interdire les systèmes de reconnaissance faciale dans l’espace public. C’est ce qu’a décidé mardi soir le Conseil communal de la ville. Elle emboîte ainsi le pas à St-Gall et Zurich.

    Le débat au sein du Conseil communal a été alimenté par le récent revirement des CFF en la matière.

    L’interdiction de la reconnaissance faciale et biométrique a fait l’unanimité des groupes politiques, s’est réjoui dans le 12h30 Benoît Gaillard, conseiller communal socialiste à l’origine de la démarche.

    « Il n’y a pas eu d’opposition. Nous avons voulu agir sur l’espace public où nous pouvons édicter des règlements, que la police qui dépend de la Ville peut également suivre. Un postulat a aussi été adopté. Il demande à la Municipalité de mettre en oeuvre les mêmes lignes directrices dans les sociétés où elles exercent une influence, soit les transports publics et les infrastructures sportives ».

    La balle est maintenant dans le camp de la Municipalité de Lausanne qui va devoir proposer un changement de règlement.
    #biométrie #facial #surveillance #algorithme #reconnaissance #vidéo-surveillance #reconnaissance_faciale #discrimination #police #vie_privée #Suisse #démocratie #bonne_nouvelle

  • Ludwig van Beethoven : l’analyse de mèches de ses cheveux lève le voile sur les causes de sa mort - Geo.fr

    En 1802, le compositeur avait fait part de sa volonté, dans une lettre à ses frères rédigée dans un moment de désespoir , que sa maladie soit décrite après sa mort et rendue publique. « Nous avons cherché à répondre à ce souhait », a déclaré lors d’une conférence de presse Tristan Begg, chercheur à l’université de Cambridge et auteur principal de l’étude.


    Pour conclure leurs travaux, les scientifiques ont comparé l’ADN de Beethoven avec celle de cinq hommes belges partageant avec le compositeur un lointain parent ayant vécu au XVIe siècle, Aert van Beethoven. Surprise : le chromosome Y de ces cinq hommes ne correspond pas à celui du musicien. Selon les chercheurs, la seule explication possible est une relation extraconjugale, quelque part entre les sept générations séparant cet ancêtre commun et la naissance de Beethoven, à Bonn en 1770. « Vous ne pouvez pas exclure que Beethoven lui-même soit illégitime, a jugé Tristan Begg. C’est une possibilité. »

    Source :
    Genomic analyses of hair from Ludwig van Beethoven : Current Biology https://www.cell.com/current-biology/fulltext/S0960-9822(23)00181-1


  • Filmée aux toilettes par son aspirateur, les images finissent sur Facebook

    Comment les images d’une jeune femme aux toilettes, filmée par un aspirateur, ont-elles fini dans un groupe Facebook ?

    Pour entraîner les IA, il faut étiqueter les images... donc des sociétés partenaire à bas coût pour tagguer des milliers d’images. Et des indiscrets dans la boucle.

    #Intelligence_artificielle #Étiquetage #Sous_traitants #Vie_privée

  • Vladimir Poutine accorde la nationalité russe au lanceur d’alerte Edward Snowden

    Le président Vladimir Poutine a accordé la nationalité russe au lanceur d’alerte et ancien employé de la NSA américaine Edward Snowden, réfugié en Russie depuis 2013 après avoir quitté les Etats-Unis, selon un décret publié lundi.

    Edward Snowden, 39 ans, est recherché par les Etats-Unis pour avoir transmis à la presse des dizaines de milliers de documents de l’Agence nationale de sécurité américaine (NSA) prouvant l’ampleur de la surveillance électronique exercée par Washington.

    Ces révélations avaient alors suscité de très fortes tensions entre les Etats-Unis et leurs alliés et la décision des autorités russes de lui accorder un permis de séjour avait provoqué la colère de Washington.

    Pas concerné par la mobilisation
    Le porte-parole du Kremlin Dmitri Peskov a précisé à l’agence Ria Novosti que la nationalité russe avait été accordée à Edward Snowden à sa propre demande.

    L’avocat russe du lanceur d’alerte, Anatoli Koutcherena, a pour sa part précisé qu’Edward Snowden ne serait pas concerné par l’ordre de mobilisation pour l’offensive en Ukraine, décrété par Vladimir Poutine la semaine dernière pour certaines catégories de Russes.

    « Il n’a pas servi dans l’armée russe et par conséquent, selon notre législation actuelle, il n’entre pas dans cette catégorie de citoyens qui sont maintenant appelés », a-t-il déclaré à l’agence Ria Novosti.

    Selon lui, la compagne d’Edward Snowden, Lindsay Mills, a également demandé à recevoir la nationalité russe et leur fille la possède déjà, étant née en Russie.

    En Russie depuis 2013
    Edward Snowden, privé de son passeport américain sur demande de Washington, s’était retrouvé à Moscou en mai 2013 après y être arrivé depuis Hong Kong et dans l’intention de trouver refuge en Amérique latine. Il s’était finalement retrouvé bloqué en Russie, où il a obtenu l’asile.

    Les autorités américaines ont tenté depuis plusieurs années d’obtenir son extradition pour le juger pour espionnage.

    #Russie #snowden #surveillance #nsa #prism #internet #edward_snowden #vie_privée #wikileaks #censure #journalisme #etats-unis #privacy #Vladimir_Poutine #information

  • [Mediapart.Fr] Après 15 ans de luttes, La Quadrature du Net raconte

    Fondée en 2008 par des hacktivistes s’opposant à la loi Hadopi, La Quadrature du Net a depuis été de toutes les luttes concernant le numérique. À chaque projet de texte national ou européen touchant aux…

    #Parle_de_La_Quadrature_du_Net #Revue_de_presse #Vie_privée_-_Données_personnelles #revue_de_presse

  • Contra #Chrome : une BD décapante maintenant en version française

    Il y a loin de la promotion du navigateur Chrome à ses débuts, un outil cool au service des internautes, au constat de ce qu’il est devenu, une plateforme de prédation de #Google, c’est ce que permet de mesurer la … Lire la suite­­

    #Dégooglisons_Internet #G.A.F.A.M. #Interview #Libres_Cultures #Libres_Logiciels #capitalisme_de_surveillance #Contrachrome #Framalang #Google_Chrome #Leah_Elliott #remix #Traduction #vie_privée #Zuboff

  • Bleu, S3ns : pourquoi les offres Cloud de confiance seront certainement soumises au Cloud Act ETX Studio - La Tribune

    Une étude commandée à un cabinet d’avocats américain par le ministère de la Justice des Pays-Bas sur le Cloud Act, conclut que les entités européennes peuvent êtres soumises à cette loi extraterritoriale même si leur siège social n’est pas aux Etats-Unis. Elle précise même que le Cloud Act s’applique aussi quand un fournisseur de cloud européen utilise du hardware ou un logiciel américain, ce qui est le principe même des futures offres de « Cloud de confiance » Bleu (les technologies de Microsoft proposées par Orange et Capgemini) et S3ns (celles de Google avec Thales). L’étude, dont les analyses sont validées par plusieurs experts du droit du numérique consultés par La Tribune, contredit donc la communication du gouvernement français ainsi que celles de Bleu et de S3ns. Elle pointe surtout un risque pour les opérateurs d’importance vitale (OIV), les opérateurs de services essentiels (OSE) et les administrations invités à souscrire sans attendre à ces offres.

    Nouvelle claque pour le gouvernement français et sa stratégie très controversée de « Cloud de confiance ». Suffit-il de posséder un siège social en France ou en Europe et de couper tout lien capitalistique avec les Etats-Unis pour être protégé contre le Cloud Act, même en vendant une offre basée sur des technologies américaines ? Non, tranche une étude réalisée par le bureau européen du cabinet d’avocats américain Greenberg Traurig LLP, https://www.ncsc.nl/documenten/publicaties/2022/augustus/16/cloud-act-memo pour le compte du ministère de la Justice et de la Sécurité des Pays-Bas, et rendue publique le 26 juillet dernier.

    Le gouvernement néerlandais souhaitait savoir si le Cloud Act, une législation extra-territoriale adoptée en 2018 pour légaliser la collecte de données à l’étranger au nom de la protection des Etats-Unis, s’appliquait seulement aux entités américaines présentes en Europe, comme on le présente souvent, ou s’il pouvait oui ou non aussi toucher les entreprises 100% européennes, c’est-à-dire dont le siège social est situé dans l’Union européenne.

    Le Cloud Act peut s’appliquer aux entreprises qui vendent des logiciels américains
    La réponse du cabinet américain Greenberg Trauring LTT -qu’on ne peut accuser de servir un agenda pro-européen- est très claire :  « Les entités européennes peuvent être à la portée du Cloud Act, même si [elles] sont situées en dehors les Etats Unis » , tranche le document en première page. https://www.ncsc.nl/documenten/publicaties/2022/augustus/16/cloud-act-memo

    Les avocats précisent toutefois qu’il est possible pour les entreprises européennes de minimiser ce risque en établissant une « muraille de Chine » avec les Etats-Unis, notamment en n’employant aucun Américain ou n’avoir aucun client américain. Ceux-ci peuvent être des chevaux de Troie pouvant justifier une intervention au titre du Cloud Act.

    Mais d’après les auteurs de l’étude, même ce bouclier anti-Cloud Act est insuffisant si l’entité utilise des technologies américaines. « Le Cloud Act peut accéder aux données via des sous-traitants/fournisseurs de matériel et de logiciels, de/vers les fournisseurs de cloud » , affirme le rapport.

    Or, ce sera précisément le mode de fonctionnement de Bleu, coentreprise entre Orange et Capgemini, et de S3ns, détenue par Thales. Bleu commercialisera sous licence les offres cloud logicielles de Microsoft Azure (notamment la suite Office 365), tandis que S3ns proposera celles de Google Cloud. Ces deux offres se présentent comme souveraines : elles affirment qu’elles seront étanches au Cloud Act américain car le service sera hébergé par des datacenters situés en France, et sera commercialisé par une entreprise de droit français, coupé de tout lien capitalistique avec les Etats-Unis.

    Ces précautions, accompagnées d’autres mesures de sécurité, sont effectivement suffisantes pour la plupart des entreprises. Mais probablement pas pour Bleu et S3ns, car Microsoft et Google sont pour elles des fournisseurs de logiciels dont elles commercialisent les services. Contacté par La Tribune, le cabinet Greenberg Trauring LTT confirme également qu’il suffit, d’après lui, de vendre des logiciels américains, même si l’entreprise est française, pour tomber sous le coup du Cloud Act.

    Cette déduction apparaît logique : dans l’économie numérique, l’hébergement des données n’est qu’une commodité. La valeur réside dans l’infrastructure logicielle qui fait tourner les clouds, ainsi que dans les logiciels qui utilisent les données. Pour justifier l’application du Cloud Act à une entité étrangère comme Bleu ou S3ns, les Etats-Unis doivent montrer que celle-ci a « suffisamment de contacts avec les Etats-Unis » , et pour de nombreux experts juridiques, la commercialisation de technologies américaines sous licence leur offre une raison suffisante.

    Une « muraille de Chine » en théorie possible mais extrêmement complexe et coûteuse
    Le gouvernement français n’ayant pas demandé ou rendu publique une étude approfondie sur la portée réelle du Cloud Act sur les futures solutions « Cloud de confiance », les conclusions du rapport de Greenberg Trauring doivent être prises avec des pincettes.

    La Tribune a donc demandé à d’autres avocats experts du droit du numérique, d’analyser la portée du Cloud Act sur les offres Cloud de confiance.  « La seule voie possible pour Bleu et S3ns, c’est de cloisonner l’offre de telle façon à ce qu’il y ait pas d’accès possible à une personne sous juridiction américaine », explique Olivier Iteanu, avocat spécialiste du droit du numérique. « Cela signifie qu’il ne peut pas y avoir de clients américains et surtout, pas un seul employé américain dans la structure, sinon le Cloud Act s’applique », met-il en garde.

    L’avocat rappelle la genèse du Cloud Act, après le scandale Snowden en 2013 qui a révélé au monde l’ampleur de la surveillance de masse opérée par les services de renseignement américains, au nom de leur souveraineté nationale.  « Les Etats-Unis ont besoin de légaliser les pratiques de surveillance de masse, de façon à ne pas soumettre les entreprises et les personnes qui coopèrent avec eux, à des actions judiciaires a posteriori. Ils ont donc prévu un très large éventail d’actions pour le Cloud Act. Il est mensonger de dire qu’il ne s’applique qu’aux entreprises américaines à l’étranger et pas aux entreprises locales ».

    Sonia Cissé, avocate associée en droit des technologies au sein du cabinet Linklaters, affirme « partager l’analyse du cabinet Greenberg Trauring » sur le fait que « les offres Cloud de confiance peuvent être soumises au Cloud Act ». Elle insiste elle-aussi sur la nécessité d’ériger une « muraille de Chine » pour se protéger au maximum des possibles intrusions américaines.

    « En plus d’empêcher tout Américain, y compris pour du support technique ou de la sauvegarde de données, d’accéder à la plateforme, il faudra mettre en place une totale ségrégation des données. Cela nécessite un cumul de mesures très lourdes, complexes et extrêmement coûteuses : c’est une muraille de Chine technique et organisationnelle, impliquant la gouvernance même des structures ainsi que les ressources humaines et la communication entre entités, qu’il faudra mettre en place et surveiller en permanence », décline-t-elle, tout en pointant les « nombreuses zones de flou » qui demeurent encore du côté de l’organisation de Bleu et de S3ns.

    Backdoors et loi FISA, les autres gros risques des offres « Cloud de confiance »
    Si le gouvernement, Bleu et S3ns se sont montrés très légers en affirmant avant même la création des offres Cloud de confiance qu’elles seront labellisées par l’Anssi -ce qui n’est pas garanti- et immunes au Cloud Act en dépit d’une analyse juridique approfondie, que dire des deux autres éléphants dans la pièce eux aussi magistralement ignorés : le risque accru de backdoors -logiciels espions infiltrés dans le code-, et celui d’une autre loi extraterritoriale américaine, FISA.

    Ainsi, FISA -pour Foreign Intelligence Surveillance Act - s’applique uniquement aux citoyens étrangers. Cette loi permet aux agences de renseignement américaines de demander aux fournisseurs de cloud l’installation de dispositifs permanents qui permettent de scanner toutes les données qu’ils gèrent en dehors des Etats-Unis. Cette surveillance peut se faire avec du matériel d’inspection des paquets en profondeur (DPI), ou de manière invisible au niveau de l’infrastructure logicielle du cloud, c’est-à-dire en utilisant les fournisseurs de la technologie. Or, Bleu et S3ns devraient ne pas avoir accès au code source des logiciels de Microsoft et de Google, qui sont leur secret industriel le plus précieux. Et même s’ils y avaient accès, encore faudrait-il qu’ils repèrent la porte dérobée imposée par les services de renseignement.

    Ces portes dérobées, ou backdoors, peuvent aussi être illégales. C’est l’autre gros risque, pour les données des opérateurs d’importance vitale, d’utiliser des services étrangers. Or, les logiciels de Microsoft et de Google sont bien connus des services américains de renseignement, et il est certainement plus facile pour eux d’entrer dans un logiciel américain qu’ils connaissent que dans une autre solution bénéficiant des plus hauts niveaux de sécurité.

    #extraterritorialité #Backdoors #surveillance #vie_privée #donnée_personnelles #nsa #bigdata #FISA #cloud #Bleu #S3ns #Cloud_Act #Logiciels #Microsoft #Orange #Capgemini #OIV #OSE

  • Tim Sweeney sur Twitter :

    You worked hard to build a great app. You registered a trademark. You signed up to Apple demands for 30% of your revenue as the sole way to reach iOS users. How does Apple reward you?

    App Store ads expanding to Today tab and more

    Apple is expanding its advertising business and adding two new ad slots to the App Store. Currently, the App Store has two ad slots: one on the main ‘Search’ tab and one in the Search results. The two new App Store ads announced today will bring advertisements to the App Store ‘Today’ homepage, as well as to individual app pages.


    Developers won’t be able to target a specific application when bidding for product page ad placement. For instance, Twitter wouldn’t be able to target Tweetbot specifically. The ads, however, will be relevant for each of the product pages. This means you could (and probably will) see ads for direct competitors on app pages.

    #jeux_vidéo #jeu_vidéo #business #apple #publicité #app_store #placement_publicitaire #apple_search_ads #publicité_contextuelle #publicité_ciblée #vie_privée #google_play