• " Après plusieurs mois d’enquête, en lien avec une initiative de l’ONG britannique @fairtrials, La Quadrature du Net publie aujourd’hui un rapport sur l’état de la police prédictive en France. "

    "Ce rapport s’intéresse aux technologies de « police prédictive » fondées sur une approche géographique (« hotspots »). Après avoir décrit l’objectif de cette recherche et notre méthode d’enquête, le rapport propose ensuite une synthèse descriptive à partir des données disponibles, en s’intéressant plus particulièrement à trois technologies de police prédictive : Paved, une technologie développée par la Gendarmerie nationale ; Smart Police, un produit vendu par la startup Edicia aux forces de police municipale ; M-Pulse, un projet anciennement baptisé « Observatoire Big Data de la Tranquillité Publique » et développé par la mairie de Marseille en partenariat avec la société Engie Solutions. Dans la partie analytique, nous soulignons que, alors même que ces systèmes ne parviennent apparemment pas à atteindre leurs objectifs – avec un impact nul ou négligeable sur la criminalité –, ils présentent un risque important de conduire les forces de l’ordre à abuser de leurs prérogatives en outrepassant les limites légales qui encadrent l’action policière et en
    accentuant la surveillance de populations en proie aux discriminations structurelles. Ce risque est d’autant plus important que ces déploiements ont lieu dans un contexte marqué par l’absence d’évaluation, la défaillance des organismes de contrôle et un manque de transparence. C’est pourquoi nous appelons à l’interdiction de ces systèmes d’aide à la décision. "

    https://www.laquadrature.net/wp-content/uploads/sites/8/2024/01/20240118_LQDN_policepredictive.pdf

  • Les enseignants contribuent-ils à renseigner les fichiers de police sans le savoir ? @OlivierCuzon
    https://twitter.com/OlivierCuzon/status/1677530492197916673

    Je suis enseignant dans un établissement de #Brest. Il a quelques jours, j’ai reçu un appel des renseignements territoriaux (ex RG).
    #LDH #libertéspubliques #EducationNationale

    Ils me font état d’un élève scolarisé dans l’établissement où je travaille en CAP maçon, et qui aurait refusé de rénover les joints d’une église au prétexte de sa religion. Renseignement pris auprès des personnels de mon établissement, les faits sont vrais,

    Vrais mais réglés : après discussion, il a accepté de faire le travail. On m’informe que l’établissement a toutefois fait remonter un « fait établissement », une procédure interne à l’Éduc nat pour aider les équipes face aux problèmes de violences, de radicalisation, ...

    La fiche de « fait établissement » est anonyme, mais une fois que la police connaît un fait, le travail de savoir qui est à l’origine est autrement plus simple.
    Il ressort de cet épisode deux questions graves, qu’on se doit de poser à @acrennes et à @Prefet29
    Y a-t-il un canal d’information directe entre l’inspection académique et la préfecture, puisqu’un fait établissement remonté la veille au soir est connu des services de police dès le lendemain ?

    Si ce canal existe, pourquoi n’est-il pas connu des personnels de l’Éducation nationale. Ces derniers font, sans le savoir, un travail de renseignement des fichiers de police. Cette information gagnerait à être connue afin de travailler en connaissance de cause !

    #élèves #enseignants #préfecture #police

  • Sorvegliare in nome della sicurezza: le Agenzie Ue vogliono carta bianca

    Il nuovo regolamento di #Europol mette a rischio la #privacy di milioni di persone mentre #Frontex, chiamata a controllare le frontiere, punta sull’intelligenza artificiale e la biometria per fermare i migranti. Provando a eludere la legge.

    C’è una lotta interna nel cuore delle istituzioni europee il cui esito toccherà da vicino il destino di milioni di persone. Lo scontro è sul nuovo regolamento di Europol, l’Agenzia europea di contrasto al crimine, entrato in vigore a fine giugno 2022 con la “benedizione” del Consiglio europeo ma che il Garante per la protezione dei dati (Gepd) definisce un “colpo allo Stato di diritto”. “La principale controversia riguarda la possibilità per l’Agenzia di aggirare le proprie regole quando ha ‘bisogno’ di trattare categorie di dati al di fuori di quelli che può raccogliere -spiega Chloé Berthélémy, policy advisor dell’European digital rights (Edri), un’organizzazione che difende i diritti digitali nel continente-. Uno scandalo pari a quanto rivelato, quasi un decennio fa, da Edward Snowden sulle agenzie statunitensi che dimostra una tendenza generale, a livello europeo, verso un modello di sorveglianza indiscriminata”.

    Con l’obiettivo di porre un freno a questa tendenza, il 22 settembre di quest’anno il presidente del Gepd, Wojciech Wiewiórowski, ha comunicato di aver intentato un’azione legale di fronte alla Corte di giustizia dell’Unione europea per contestare la legittimità dei nuovi poteri attribuiti a Europol. Un momento chiave di questa vicenda è il gennaio 2022 quando l’ufficio del Gepd scopre che proprio l’Agenzia aveva conservato illegalmente un vasto archivio di dati sensibili di oltre 250mila persone, tra cui presunti terroristi o autori di reati, ma soprattutto di persone che erano entrate in contatto con loro. Secondo quanto ricostruito dal Guardian esisteva un’area di memoria (cache) detenuta dall’Agenzia contenente “almeno quattro petabyte, equivalenti a tre milioni di cd-rom” con dati raccolti nei sei anni precedenti dalle singole autorità di polizia nazionali. Il Garante ordina così di cancellare, entro un anno, tutti i dati più “vecchi” di sei mesi ma con un “colpo di mano” questa previsione viene spazzata via proprio con l’entrata in vigore del nuovo regolamento. “In particolare, due disposizioni della riforma rendono retroattivamente legali attività illegali svolte dall’Agenzia in passato -continua Berthélémy-. Ma se Europol può essere semplicemente esentata dai legislatori ogni volta che viene colta in flagrante, il sistema di controlli ed equilibri è intrinsecamente compromesso”.

    L’azione legale del Gepd ha però un ulteriore obiettivo. In gioco c’è infatti anche il “modello” che l’Europa adotterà in merito alla protezione dei dati: da un lato quello americano, basato sulla sorveglianza pressoché senza limiti, dall’altro il diritto alla protezione dei dati che può essere limitato solo per legge e con misure proporzionate, compatibili con una società democratica. Ma proprio su questo aspetto le istituzioni europee vacillano. “Il nuovo regolamento esplicita l’obiettivo generale della comunità delle forze dell’ordine: quello di poter utilizzare metodi di ‘polizia predittiva’ che hanno come finalità l’identificazione di individui che potranno potenzialmente essere coinvolti nella commissione di reati”, sottolinea ancora la ricercatrice. Significa, in altri termini, l’analisi di grandi quantità di dati predeterminati (come sesso e nazionalità) mediante algoritmi e tecniche basate sull’intelligenza artificiale che permetterebbero, secondo i promotori del modello, di stabilire preventivamente la pericolosità sociale di un individuo.

    “Questo approccio di polizia predittiva si sviluppa negli Stati Uniti a seguito degli attentati del 2001 -spiega Emilio De Capitani, già segretario della Commissione libertà civili (Libe) del Parlamento europeo dal 1998 al 2011 che da tempo si occupa dei temi legati alla raccolta dei dati-. Parallelamente, in quegli anni, inizia la pressione da parte della Commissione europea per sviluppare strumenti di raccolta dati e costruzione di database”.

    “Il nuovo regolamento esplicita l’obiettivo generale della comunità delle forze dell’ordine: quello di poter utilizzare metodi di ‘polizia predittiva’” – Chloé Berthélémy

    Fra i primi testi legislativi europei che si fondano sulla raccolta pressoché indiscriminata di informazioni c’è la Direttiva 681 del 2016 sulla raccolta dei dati dei passeggeri aerei (Pnr) come strumento “predittivo” per prevenire i reati di terrorismo e altri reati definiti come gravi. “Quando ognuno di noi prende un aereo alimenta due archivi: l’Advanced passenger information (Api), che raccoglie i dati risultanti dai documenti ufficiali come la carta di identità o il passaporto permettendo così di costruire la lista dei passeggeri imbarcati, e un secondo database in cui vengono versate anche tutte le informazioni raccolte dalla compagnia aerea per il contratto di trasporto (carta di credito, e-mail, esigenze alimentari, tipologia dei cibi, annotazioni relative a esigenze personali, etc.) -spiega De Capitani-. Su questi dati legati al contratto di trasporto viene fatto un controllo indiretto di sicurezza filtrando le informazioni in relazione a indicatori che potrebbero essere indizi di pericolosità e che permetterebbero di ‘sventare’ attacchi terroristici, possibili dirottamenti ma anche reati minori come la frode o la stessa violazione delle regole in materia di migrazione. Questo perché il testo della Direttiva ha formulazioni a dir poco ambigue e permette una raccolta spropositata di informazioni”. Tanto da costringere la Corte di giustizia dell’Ue, con una sentenza del giugno 2022 a reinterpretare in modo particolarmente restrittivo il testo legislativo specificando che “l’utilizzo di tali dati è permesso esclusivamente per lo stretto necessario”.

    L’esempio della raccolta dati legata ai Pnr è esemplificativo di un meccanismo che sempre di più caratterizza l’operato delle Agenzie europee: raccogliere un elevato numero di dati per finalità genericamente collegate alla sicurezza e con scarse informazioni sulla reale utilità di queste misure indiscriminatamente intrusive. “Alle nostre richieste parlamentari in cui chiedevamo quanti terroristi o criminali fossero stati intercettati grazie a questo sistema, che raccoglie miliardi di dati personali, la risposta è sempre stata evasiva -continua De Capitani-. È come aggiungere paglia mentre si cerca un ago. Il cittadino ci rimette due volte: non ha maggior sicurezza ma perde in termini di rispetto dei suoi diritti. E a perderci sono soprattutto le categorie meno protette, e gli stessi stranieri che vengono o transitano sul territorio europeo”.

    “Il cittadino ci rimette due volte: non ha maggior sicurezza ma perde in termini di rispetto dei suoi diritti. Soprattutto le categorie meno protette” – Emilio De Capitani

    I migranti in particolare diventano sempre più il “banco di prova” delle misure distopiche di sorveglianza messe in atto dalle istituzioni europee europee attraverso anche altri sistemi che si appoggiano anch’essi sempre più su algoritmi intesi a individuare comportamenti e caratteristiche “pericolose”. E in questo quadro Frontex, l’Agenzia che sorveglia le frontiere esterne europee gioca un ruolo di primo piano. Nel giugno 2022 ancora il Garante europeo ha emesso nei suoi confronti due pareri di vigilanza che sottolineano la presenza di regole “non sufficientemente chiare” sul trattamento dei dati personali dei soggetti interessati dalla sua attività e soprattutto “norme interne che sembrano ampliare il ruolo e la portata dell’Agenzia come autorità di contrasto”.

    Il Garante si riferisce a quelle categorie speciali come “i dati sanitari delle persone, i dati che rivelano l’origine razziale o etnica, i dati genetici” che vengono raccolti in seguito all’identificazione di persone potenzialmente coinvolte in reati transfrontalieri. Ma quel tipo di attività di contrasto non rientra nel mandato di Frontex come guardia di frontiera ma ricade eventualmente nelle competenze di un corpo di polizia i cui possibili abusi sarebbero comunque impugnabili davanti a un giudice nazionale o europeo. Quindi, conclude il Garante, il trattamento di questi dati dovrebbe essere protetto con “specifiche garanzie per evitare pratiche discriminatorie”.

    Ma secondo Chris Jones, direttore esecutivo del gruppo di ricerca indipendente Statewatch, il problema è a monte. Sono le stesse istituzioni europee a incaricare queste due agenzie di svolgere attività di sorveglianza. “Frontex ed Europol hanno sempre più poteri e maggior peso nella definizione delle priorità per lo sviluppo di nuove tecnologie di sicurezza e sorveglianza”, spiega. Un peso che ha portato, per esempio, a finanziare all’interno del piano strategico Horizon Europe 2020, che delinea il programma dell’Ue per la ricerca e l’innovazione dal 2021 al 2024, il progetto “Secure societies”. Grazie a un portafoglio di quasi 1,7 miliardi di euro è stata commissionata, tra gli altri, la ricerca “ITFlows” che ha come obiettivo quello di prevedere, attraverso l’utilizzo di strumenti di intelligenza artificiale, i flussi migratori. Il sistema predittivo, simile a quello descritto da Berthélémy, è basato su un modello per il quale, con una serie di informazioni storiche raccolte su un certo fenomeno, sarebbe possibile anticipare sugli eventi futuri.

    “Se i dati sono cattivi, la decisione sarà cattiva. Se la raccolta dei dati è viziata dal pregiudizio e dal razzismo, lo sarà anche il risultato finale” – Chris Jones

    “Se le mie previsioni mi dicono che arriveranno molte persone in un determinato confine, concentrerò maggiormente la mia sorveglianza su quella frontiera e potrò più facilmente respingerli”, osserva Yasha Maccanico, ricercatore di Statewatch. Sempre nell’ambito di “Secure societies” il progetto “iBorderCtrl” riguarda invece famigerati “rilevatori di bugie” pseudoscientifici che dedurrebbe lo stato emotivo, le intenzioni o lo stato mentale di una persona in base ai suoi dati biometrici. L’obiettivo è utilizzare questi strumenti per valutare la credibilità dei racconti dei richiedenti asilo nelle procedure di valutazione delle loro richieste di protezione. E in questo quadro sono fondamentali i dati su cui si basano queste predizioni: “Se i dati sono cattivi, la decisione sarà cattiva -continua Jones-. Se la raccolta dei dati è viziata dal pregiudizio e dal razzismo, lo sarà anche il risultato finale”. Per questi motivi AccessNow, che si occupa di tutela dei diritti umani nella sfera digitale, ha scritto una lettera (firmata anche da Edri e Statewatch) a fine settembre 2022 ai membri del consorzio ITFlows per chiedere di terminare lo sviluppo di questi sistemi.

    Anche sul tema dei migranti il legislatore europeo tenta di creare, come per Europol, una scappatoia per attuare politiche di per sé illegali. Nell’aprile 2021 la Commissione europea ha proposto un testo per regolamentare l’utilizzo dell’intelligenza artificiale e degli strumenti basati su di essa (sistemi di videosorveglianza, identificazione biometrica e così via) escludendo però l’applicazione delle tutele previste nei confronti dei cittadini che provengono da Paesi terzi. “Rispetto ai sistemi di intelligenza artificiale quello che conta è il contesto e il fine con cui vengono utilizzati. Individuare la presenza di un essere umano al buio può essere positivo ma se questo sistema è applicato a un confine per ‘respingere’ la persona diventa uno strumento che favorisce la lesione di un diritto fondamentale -spiega Caterina Rodelli analista politica di AccessNow-. Si punta a creare due regimi differenti in cui i diritti dei cittadini di Paesi terzi non sono tutelati come quelli degli europei: non per motivi ‘tecnici’ ma politici”. Gli effetti di scarse tutele per gli uni, i migranti, ricadono però su tutti. “Per un motivo molto semplice. L’Ue, a differenza degli Usa, prevede espressamente il diritto alla tutela della vita privata nelle sue Carte fondamentali -conclude De Capitani-. Protezione che nasce dalle più o meno recenti dittature che hanno vissuto gli Stati membri: l’assunto è che chi è o si ‘sente’ controllato non è libero. Basta questo per capire perché sottende l’adozione di politiche ‘predittive’ e la riforma di Europol o lo strapotere di Frontex, stiano diventando un problema di tutti perché rischiano di violare la Carta dei diritti fondamentali”.

    https://altreconomia.it/sorvegliare-in-nome-della-sicurezza-le-agenzie-ue-vogliono-carta-bianca
    #surveillance #biométrie #AI #intelligence_artificielle #migrations #réfugiés #Etat_de_droit #données #protection_des_données #règlement #identification #police_prédictive #algorythme #base_de_données #Advanced_passenger_information (#Api) #avion #transport_aérien #Secure_societies #ITFlows #iBorderCtrl #asile #

    • New Europol rules massively expand police powers and reduce rights protections

      The new rules governing Europol, which came into force at the end of June, massively expand the tasks and powers of the EU’s policing agency whilst reducing external scrutiny of its data processing operations and rights protections for individuals, says a report published today by Statewatch.

      Given Europol’s role as a ‘hub’ for information processing and exchange between EU member states and other entities, the new rules thus increase the powers of all police forces and other agencies that cooperate with Europol, argues the report, Empowering the police, removing protections (https://www.statewatch.org/publications/reports-and-books/empowering-the-police-removing-protections-the-new-europol-regulation).

      New tasks granted to Europol include supporting the EU’s network of police “special intervention units” and managing a cooperation platform for coordinating joint police operations, known as EMPACT. However, it is the rules governing the processing and exchange of data that have seen the most significant changes.

      Europol is now allowed to process vast quantities of data transferred to it by member states on people who may be entirely innocent and have no link whatsoever to any criminal activity, a move that legalises a previously-illegal activity for which Europol was admonished by the European Data Protection Supervisor.

      The agency can now process “investigative data” which, as long it relates to “a specific criminal investigation”, could cover anyone, anywhere, and has been granted the power to conduct “research and innovation” projects. These will be geared towards the use of big data, machine learning and ‘artificial intelligence’ techniques, for which it can process sensitive data such as genetic data or ethnic background.

      Europol can now also use data received from non-EU states to enter “information alerts” in the Schengen Information System database and provide “third-country sourced biometric data” to national police forces, increasing the likelihood of data obtained in violation of human rights being ‘laundered’ in European policing and raising the possibility of third states using Europol as a conduit to harass political opponents and dissidents.

      The new rules substantially loosen restrictions on international data transfers, allowing the agency’s management board to authorise transfers of personal data to third states and international organisations without a legal agreement in place – whilst priority states for international cooperation include dictatorships and authoritarian states such as Algeria, Egypt, Turkey and Morocco.

      At the same time, independent external oversight of the agency’s data processing has been substantially reduced. The threshold for referring new data processing activities to the European Data Protection Supervisor (EDPS) for external scrutiny has been raised, and if Europol decides that new data processing operations “are particularly urgent and necessary to prevent and combat an immediate threat,” it can simply consult the EDPS and then start processing data without waiting for a response.

      The agency is now required to employ a Fundamental Rights Officer (FRO), but the role clearly lacks independence: the FRO will be appointed by the Management Board “upon a proposal of the Executive Director,” and “shall report directly to the Executive Director”.

      Chris Jones, Director of Statewatch, said:

      “The proposals to increase Europol’s powers were published six months after the Black Lives Matter movement erupted across the world, calling for new ways to ensure public safety that looked beyond the failed, traditional model of policing.

      With the new rules agreed in June, the EU has decided to reinforce that model, encouraging Europol and the member states to hoover up vast quantities of data, develop ‘artificial intelligence’ technologies to examine it, and increase cooperation with states with appalling human rights records.”

      Yasha Maccanico, a Researcher at Statewatch, said:

      “Europol has landed itself in hot water with the European Data Protection Supervisor three times in the last year for breaking data protection rules – yet the EU’s legislators have decided to reduce the EDPS’ supervisory powers. Independent, critical scrutiny and oversight of the EU’s policing agency has never been more needed.”

      The report (https://www.statewatch.org/publications/reports-and-books/empowering-the-police-removing-protections-the-new-europol-regulation) has been published alongside an interactive ’map’ of EU agencies and ’interoperable’ policing and migration databases (https://www.statewatch.org/eu-agencies-and-interoperable-databases), designed to aid understanding and further research on the data architecture in the EU’s area of freedom, security and justice.

      https://www.statewatch.org/news/2022/november/new-europol-rules-massively-expand-police-powers-and-reduce-rights-prote
      #interopérabilité #carte #visualisation

    • EU agencies and interoperable databases

      This map provides a visual representation of, and information on, the data architecture in the European Union’s “area of freedom, security and justice”. It shows the EU’s large-scale databases, networked information systems (those that are part of the ’Prüm’ network), EU agencies, national authorities and international organisations (namely Interpol) that have a role in that architecture. It is intended to facilitate understanding and further investigation into that architecture and the agencies and activities associated with it.

      https://www.statewatch.org/eu-agencies-and-interoperable-databases
      #réseau #prüm_II

  • La décision de la Cour de justice de l’UE sur les données de connexion pourrait bouleverser les méthodes d’enquête policière et judiciaire
    https://www.lemonde.fr/societe/article/2020/10/07/la-decision-de-la-cour-de-justice-de-l-ue-sur-les-donnees-de-connexion-pourr

    La Cour de Luxembourg a rendu un arrêt très attendu, mardi, qui s’oppose à la collecte généralisée des données de télécommunications auprès des opérateurs de téléphonie et des fournisseurs d’accès à Internet.

    C’est une décision technique sur un sujet longtemps resté sous les radars, mais que guettaient particulièrement les acteurs de la lutte contre le terrorisme, et plus largement l’ensemble des milieux policiers, judiciaires et le monde du renseignement. L’arrêt qu’a rendu, mardi 6 octobre, la Cour de justice de l’Union européenne (CJUE) en matière de conservation des données personnelles pourrait s’avérer un sérieux coup de boutoir dans la façon dont sont actuellement mises en œuvre les enquêtes administratives et judiciaires, en France comme en Europe.

    Dans cette décision rendue publique après quatre ans de contentieux, la Cour de Luxembourg a en effet confirmé qu’elle s’opposait à « la transmission ou à la conservation généralisée et indifférenciée des données » relatives au trafic et à la localisation des citoyens européens « à des fins de lutte contre les infractions en général ou de sauvegarde de la sécurité nationale ». En clair, elle s’oppose à la coopération telle qu’elle s’effectue aujourd’hui entre services enquêteurs et opérateurs de téléphonie (fixe ou mobile), fournisseurs d’accès à Internet ou hébergeurs (de type Facebook ou réseaux sociaux).

    Jusqu’à présent, des sociétés privées comme Orange, Bouygues ou encore Free ont l’obligation légale de conserver – pendant un an en France – les données de connexion Internet ou téléphoniques de leurs clients « pour les besoins de la recherche, de la constatation et de la poursuite des infractions pénales », selon le code des postes et des communications électroniques. Cette obligation concerne les données relatives à l’identité, la date, l’heure ou la localisation des communications, mais pas leur contenu. Avec l’arrêt de la CJUE, cette contrainte pourrait être allégée, supprimée dans certains cas, ou considérablement encadrée.

    Prudence sur l’interprétation
    En pratique, aujourd’hui, les données de connexions permettent aux autorités judiciaires et aux services de renseignement de lancer la quasi-intégralité de leurs investigations. Ce qui est parfois résumé par l’expression « faire les fadettes », c’est-à-dire obtenir la liste des communications détaillées d’un individu. Ainsi, si une personne est soupçonnée de velléités djihadistes, les enquêteurs peuvent très vite tirer les fils de son « environnement » pour entamer d’éventuelles surveillances ou procéder à des interpellations. La démarche est la même pour des affaires ordinaires de vol, de stupéfiants, de violences ou de disparition inquiétante.

    #paywall

    • Comment traduire donc, concrètement, la décision de la CJUE sans mettre en péril toute l’architecture des méthodes d’enquêtes actuelles ? C’est tout le nœud du sujet.

      L’argumentation de la CJUE, longue de 85 pages, est ardue. Tellement, que les praticiens sollicités mardi par Le Monde se montraient tous très prudents quant à son interprétation. « Nous prenons acte de cette décision qui est en cours d’examen » , se borne-t-on à indiquer au ministère de la justice. Même tonalité du côté du ministère de l’intérieur où, comme ailleurs, on renvoie la balle au Conseil d’Etat, à qui incombera la transposition en droit français de cette décision.

      L’exercice s’annonce acrobatique pour la plus haute juridiction administrative. La décision de la CJUE apparaît en effet comme un savant compromis entre souci affiché de renforcer les libertés publiques et nécessités opérationnelles des services enquêteurs. Même les militants de La Quadrature du Net, l’association française la plus en pointe en matière de défense des libertés sur Internet – dont plusieurs recours ont nourri l’arrêt de la Cour de Luxembourg –, admettaient, mardi, dans un communiqué, le besoin d’une « longue et minutieuse analyse » pour mesurer toutes les conséquences de ce texte.

      Justifier d’une menace « réelle »

      Au-delà de son opposition générale à la transmission ou à la conservation généralisée des données, la CJUE a en effet laissé la porte ouverte à un certain nombre de dérogations. Notamment en cas de « menace grave pour la sécurité nationale » : une formulation qui intègre le risque terroriste. Dans le même temps, la CJUE a assorti cette dérogation de précautions strictes. Pour permettre la conservation ou l’accès aux données des opérateurs, les autorités devront justifier d’une menace « réelle, et actuelle ou prévisible » . Une gageure dans certaines situations.

      Pour tout le reste de la délinquance, qui se traduit aujourd’hui par des réquisitions quotidiennes de la part des services de police ou de justice aux opérateurs de téléphonie, la CJUE a décidé également de limiter la conservation ou la transmission des données aux cas de « criminalité grave » ou de « menaces graves contre la sécurité publique » . Ces données devront, en outre, être restreintes à des zones « géographiques » ou des « catégories de personnes » pour une période définie. Le tout, sans être « discriminatoires ». Sous-entendu, sans cibler plus particulièrement certains territoires ou groupes ethniques.

      Enfin, que ce soit en matière de renseignement ou d’affaires judiciaires, la Cour de Luxembourg entend que les nouvelles restrictions qu’elle édicte fassent l’objet d’un contrôle « effectif » , soit par une « entité administrative indépendante » , soit par une « juridiction » . En France, cela pourrait se traduire, en matière de renseignement, par un renforcement des pouvoirs de la Commission nationale de contrôle des techniques de renseignement. Pour les enquêtes judiciaires, en revanche, un nouveau système serait à inventer, avec éventuellement l’intervention d’un juge des libertés en amont de toute réquisition aux opérateurs.

      « Matériellement irréaliste »

      La CJUE introduit également une disposition qui fait d’ores et déjà planer une certaine incertitude sur nombre de procédures : à terme, la justice devra « écarter » toutes les « informations » , ou les « éléments de preuve » obtenus dans le cadre juridique actuel de conservation généralisée, si les « personnes soupçonnées d’acte de criminalité » ne sont pas « en mesure de commenter efficacement » ces éléments. En clair, la pertinence des preuves recueillies pourra être contestée en justice.

      Quelle stratégie l’exécutif adoptera-t-il face à cette décision qui va à l’encontre de tous ses argumentaires déployés auprès de la Cour de Luxembourg depuis quatre ans ? L’arrêt s’inscrit en effet dans un intense plaidoyer développé à tous les niveaux de l’Etat, depuis fin 2016, date d’un précédent arrêt – dit « Tele2 » – qui avait déjà jugé que les Etats membres ne pouvaient pas imposer aux opérateurs de téléphonie ou fournisseurs d’accès à Internet une « obligation généralisée et indifférenciée » de conservation des données. Mais la France, aux côtés d’autres pays, défendait l’idée que la sécurité nationale « reste de la seule responsabilité de chaque Etat membre ».

      Parmi les principaux visages de cette ligne française, se trouvait notamment le procureur général près la Cour de cassation et ancien procureur de Paris François Molins, qui a eu à gérer l’essentiel de la vague d’attentats terroristes de 2015 à 2018. Alors qu’il s’exprime rarement en public sur le sujet, il n’avait pas mâché ses mots lors d’une intervention à la Fondation Robert Schuman, en avril 2019 : « La décision Tele2 (…) est fondée sur un raisonnement qui, s’il est juridiquement compréhensible, est matériellement irréaliste » , avait-il notamment déclaré dans une critique à peine voilée de la CJUE.

      Mais l’argumentaire français a été définitivement rejeté, mardi, par la Cour de Luxembourg, en s’appuyant notamment sur une directive européenne de 2002, dite « vie privée et communications électroniques » . Selon la CJUE, celle-ci « ne permet pas que la dérogation à l’obligation de principe de garantir la confidentialité des communications électroniques et des données afférentes (…) devienne la règle » . La Cour a aussi fait valoir la cohérence nécessaire, selon elle, avec la charte des droits fondamentaux de l’Union européenne.

      Détection de menace par algorithme

      Nombre de spécialistes de tous bords, fonctionnaires comme militants des libertés publiques, s’interrogent sur d’autres effets plus paradoxaux, à moyen terme, de l’arrêt de la CJUE. En particulier l’encouragement contenu dans cette décision à développer des méthodes d’enquête – certes encadrées – de plus en plus tournées vers la captation en temps réel, le « prédictif » , et de facto relevant pour beaucoup du domaine du renseignement. Notamment grâce à l’utilisation d’une méthode contestée qui doit faire l’objet, en France, d’un débat parlementaire en 2021 : la détection de menace par algorithme.

      Un modèle à l’allemande, où les autorités se sont déjà conformées à l’arrêt de la CJUE. En contrepartie, beaucoup d’investigations ne peuvent voir le jour sans l’échange de renseignements avec des partenaires étrangers, en particulier les Etats-Unis, qui s’appuient sur les puissants moyens de l’Agence nationale de la sécurité (NSA).

      Dans les états-majors et les cabinets ministériels, mardi, les réactions hésitaient sur la réponse à apporter aux injonctions de la juridiction européenne : faire profil bas et adapter au minimum la législation actuelle sans mot dire, ou au contraire politiser l’affaire alors que la lutte contre les trafics de stupéfiants et la petite délinquance est aujourd’hui un des axes forts du gouvernement ? En raison de la forte insécurité juridique qu’introduit la décision de la CJUE, le Conseil d’Etat pourrait, quoi qu’il arrive, statuer rapidement. « D’ici quelques mois » , d’après une source sécuritaire.

      #sécurité #données_de_connexion #surveillance #renseignement #police_prédictive #justice

    • #merci !
      sujet à suivre

      il me semble que la voie que va retenir le gouvernement sera de faire profil bas et de refiler le truc à la CNCTR, ce qui n’est pas vraiment rassurant, celle-ci ne brillant pas par sa défense effrénée des libertés individuelles face à la soif de renseignements des organes

  • L’essor des réseaux de caméras intelligentes, et pourquoi nous devrions les interdire
    https://www.les-crises.fr/l-essor-des-reseaux-de-cameras-intelligentes-et-pourquoi-nous-devrions-le

    Source : The Intercept, Michael Kwet La #Reconnaissance_Faciale inquiète un peu partout. Qu’on puisse, par caméra, suivre nos moindres mouvements en public préoccupe beaucoup plus que l’existence et la prévalence exponentielle des réseaux de vidéosurveillance « intelligents », alors qu’il s’agit d’un sujet tout aussi inquiétant. Les ménages et les sociétés privées commencent à connecter leurs caméras sur les réseaux policiers, et les rapides progrès de l’intelligence artificielle donnent aux réseaux de télévision en circuit fermé le pouvoir de surveiller la totalité de l’espace public. Dans un avenir pas si lointain, nos forces de police, nos magasins, et notre administration municipale espèrent pouvoir filmer notre moindre mouvement, et même mieux, l’interpréter par le biais de l’analyse des métadonnées. (...)

    #Libertés_Publiques #Surveillance_de_masse #Libertés_Publiques,_Reconnaissance_Faciale,_Surveillance_de_masse

  • Ce que nous avions à dire à ceux qui bâtissent la technopolice
    https://www.laquadrature.net/2019/09/27/ce-que-nous-avions-a-dire-a-ceux-qui-batissent-la-technopolice

    Rappel : La reconnaissance faciale s’apprête à déferler en France. Pour documenter et résister à ces déploiements, rendez-vous sur technopolice.fr et son forum ! Mardi 24 septembre, La Quadrature était conviée à la « vingt-quatrième journée technico-opérationnelle de la sécurité intérieure », qui se tenait dans un amphithéâtre bondé de la Direction générale de la gendarmerie nationale. Ces rencontres sont organisées tous les six mois par le ministère de l’intérieur, et celle-ci avait pour thème : « (...)

    #algorithme #AliceM #CCTV #biométrie #facial #vidéo-surveillance #surveillance #étudiants #LaQuadratureduNet (...)

    ##CNIL

  • Je viens seulement de réaliser la présence d’un bandeau sur toutes les vidéos provenant de RT :

    RT est financée entièrement ou partiellement par le gouvernement russe.

    avec lien vers la page Wikipédia.

    À l’initiative de qui ?

    Va-t-on bientôt voir les vidéos de Guillaume Meurice, ornées d’un bandeau ?

    France Inter est financée entièrement ou partiellement par le gouvernement français.

    • C’est juste la mise en place du « code de bonne conduite » annoncé par Zuzu contre les #fakenews. Je m’en suis rendue compte y’a quelques jour avec un bandeau sous un des flux d’infos locales qui alimentent ma page « karacole » : @indymedianantes : ça montrait la traduction automatique du résumé Wikipedia anglais... qui met l’accent sur les raids judiciaires qui ont attaqué plusieurs collectifs...

    • L’outil de lutte contre les fakes news de Youtube fait un lien entre Notre-Dame et le 11 Septembre — RT en français
      https://francais.rt.com/france/61089-outil-lutte-contre-fakes-news-youtube-lien-notre-dame-11-septembr

      YouTube, qui appartient à Google, a introduit cette fonction l’année dernière dans l’optique de lutter contre la propagation des théories dites complotistes, notamment celles qui remettent en cause la version officielle des attentats du 11 septembre. « Ces bandeaux sont générés de manière algorithmique et nos systèmes peuvent parfois se tromper », s’est justifié un porte-parole de la plateforme de partage, cité par l’AFP. Cette nouvelle fonctionnalité est pour l’instant « uniquement disponible aux Etats-Unis et en Corée du Sud », a-t-il ajouté, précisant que le bandeau en question avait été enlevé.

      Présent donc depuis l’année dernière aux États-Unis et en Corée du Sud et maintenant « ouvert » en France depuis peu (article du 16 avril où ce n’était visiblement pas le cas).

      le tweet cité :
      @BenjaminNorton, 15 avril 2019
      https://twitter.com/BenjaminNorton/status/1117875121656619013

    • L’audiovisuel public français irrité par une nouvelle fonctionnalité de YouTube (02/05/2019)
      https://www.lemonde.fr/actualite-medias/article/2019/05/02/l-audiovisuel-public-francais-irrite-par-une-nouvelle-fonctionnalite-de-yout

      Pour prévenir tout risque de propagande, la plate-forme américaine avertira l’utilisateur quand un média est doté d’un financement public. Le service public craint d’être assimilé à des chaînes proches du pouvoir.

      A moins d’un mois des élections européennes, les grandes plates-formes en ligne multiplient les garde-fous pour empêcher que des campagnes de manipulation de l’opinion puissent altérer le résultat du scrutin. Facebook, Google et Twitter sont attendus au tournant, après les interférences russes dans l’élection présidentielle américaine de 2016 sur les réseaux sociaux, ou la diffusion massive de fausses informations sur la messagerie WhatsApp, propriété de Facebook, par des partisans du candidat élu Jair Bolsonaro pendant la dernière campagne présidentielle au Brésil.

      Après Facebook et Twitter, Google vient, lui aussi, de dévoiler son arsenal pour déjouer les opérations de désinformation et les tentatives d’ingérence étrangères. En France et dans plusieurs pays d’Europe, les utilisateurs de son service vidéo YouTube verront bientôt s’afficher un bandeau sous les vidéos des médias publics ou gouvernementaux. Ce « label de transparence », qui précise le financement de l’éditeur et renvoie vers sa page Wikipédia, doit permettre aux internautes de « mieux comprendre les sources des actualités qu’ils regardent », a expliqué Google sur son blog, le 24 avril. En clair, de les aider à repérer les campagnes de propagande, même si le géant américain tient à préciser qu’il « ne s’agit pas d’un commentaire de YouTube sur la ligne éditoriale de l’éditeur ou de la vidéo, ni sur l’influence du gouvernement sur le contenu éditorial ».

      Si cette mesure existe déjà depuis un an aux Etats-Unis, en Irlande, au Royaume-Uni et en Inde – où elle s’applique aux chaînes YouTube de Franceinfo, d’Arte ou de Radio France –, son arrivée en France suscite l’embarras de l’audiovisuel public. « On assimile des médias du service public dans des démocraties à des médias d’Etat dans des régimes autoritaires », se désole un cadre de France Télévisions, sous couvert d’anonymat, en citant sans détour les déclinaisons françaises de Russia Today (RT) et Sputnik, deux médias financés par le gouvernement russe et régulièrement soupçonnés d’être sous son influence.

      Dans les pays où cette fonctionnalité est déjà active, YouTube distingue bien les « services audiovisuels publics » des « médias financés entièrement ou en partie par un gouvernement ». Mais, pour un autre dirigeant de France Télévisions, « ce n’est pas suffisant ». Selon lui, le simple fait que cette démarche « englobe » ces deux types d’acteurs risque « d’induire en erreur » le public, pour qui « la subtilité institutionnelle du service public à la française n’est pas forcément très claire ».

      De son côté, la présidente de RT France, Xenia Fedorova, dénonce, au contraire, cette « hiérarchie ». « Nous avons toujours été transparents sur le fait que RT France est financé par la Russie, tout comme France 24 est financé par l’Etat français ou la BBC par l’Etat britannique. »

      France Médias Monde (France 24, RFI, Monte Carlo Doualiya), juge « essentiel » que son « indépendance par rapport au pouvoir politique soit prise en compte dans les dénominations utilisées dans toutes les langues ». Le groupe, dont une large partie de l’audience est réalisée sur YouTube à l’étranger, n’était pas concerné par le dispositif dans les premiers pays où il a été lancé, de même que TV5 Monde. Contacté par Le Monde, Google explique que cela devrait désormais être le cas pour ces deux chaînes, sans détailler la liste définitive des médias ciblés.

      Plusieurs acteurs concernés déplorent, par ailleurs, le manque de concertation avec l’entreprise californienne. « C’est nous qui nous sommes rapprochés de Google après avoir découvert cette annonce dans une dépêche, fustige-t-on au sein de France Télévisions. Tout ce qui permet davantage de transparence va dans le bon sens, mais cela ne peut pas se faire dans le dos des éditeurs. »

      Les critères retenus suscitent aussi l’incompréhension. « Pourquoi ne pas afficher le même message quand un média est détenu par un actionnaire privé ? », interroge un cadre du groupe public, qui regrette une « transparence à géométrie variable ».

      Parmi les mesures prévues par Google à l’approche des élections européennes, YouTube va également « renforcer la visibilité » des éditeurs « faisant autorité », lorsqu’un événement important se produit. Reste à savoir si cette mesure, en bénéficiant aux grands médias publics, suffira à apaiser leur mécontentement.

    • Deux poids, deux mesures : YouTube instaure une nouvelle fonctionnalité discriminant RT — RT en français (article du 17/05/2019, jour de l’entrée en fonction du dispositif)
      https://francais.rt.com/france/62164-deux-poids-deux-mesures-youtube-instaure-nouvelles-fonctionnalite

      YouTube labellise désormais les médias d’Etat sous leurs vidéos, mais avec une différence sémantique notable : RT France est ainsi « financée par le gouvernement russe », quand France 24 ou la BBC sont des « chaînes de service public ».

      Le 17 mai, YouTube a introduit une nouvelle fonctionnalité, en ajoutant un bandeau sous les vidéos des médias publics ou gouvernementaux. Ce « label de transparence », selon les termes de Google (à qui YouTube appartient), indique le financement de l’éditeur de la vidéo, et renvoie à la page Wikipédia qui lui est consacrée. Selon Google, le but est de permettre aux internautes de « mieux comprendre les sources des actualités qu’ils regardent ».

      Et Google de préciser qu’il ne s’agit en rien d’un commentaire de la part de YouTube sur la ligne éditoriale de l’éditeur ou de la vidéo, ni sur l’influence du gouvernement en question sur le contenu éditorial. En d’autres termes, il ne s’agirait que d’une information à caractère purement objectif.

      Pourtant à y regarder de plus près, tout le monde n’est pas logé à la même enseigne, suivant le pays d’origine de son financement. Ainsi, RT, qui n’a jamais caché être financé par la Russie, dispose désormais d’un bandeau indiquant qu’elle est « entièrement ou partiellement financée par le gouvernement russe ».

      Or la différence sémantique est notable concernant France 24 ou encore la BBC, dont le financement dépend respectivement de la France et du Royaume-Uni, qui sont elles qualifiées de « chaînes de service public » française et britannique.

      La présidente de RT France, Xenia Federova s’inquiète : « Nous sommes plus préoccupés par le deux poids, deux mesures qu’induit cette procédure. Nous avons constaté une inéquité dans l’application de ces bandeaux. Certains médias étant ainsi labellisés, tandis que d’autres, avec le même mode de financement, ne le sont pas. De plus, même parmi ceux qui sont labellisés, une hiérarchie persiste. Par exemple, le fait que BBC News soit qualifié de "service public", et non pas "financé par le gouvermenent", même s’il reçoit un financement substantiel directement du Royaume-Uni. »

      Elle rappelle également que « RT France n’a jamais caché la source de son financement ». Avant d’ajouter : « Nous étions, dès le début, très clairs et transparents sur le fait que RT France est financée par la Russie. Tout comme France 24 est financée par l’Etat français ou la BBC l’Etat britannique. Dans le même temps, le lancement de cette initiative en France juste avant les élections européennes pourrait semer la confusion pour le public en créant une opinion erronée selon laquelle les sources de financement provenant du secteur privé ou de grands groupes sont meilleures – plus légitimes, crédibles ou objectives – que d’autres, publiques. Le critère pour juger un média étant alors uniquement la source de financement et non la réalité de son travail ou la qualité des contenus. »

      Une inquiétude d’autant plus légitime que les bandeaux en question renvoient vers la fiche Wikipédia des médias concernés. Or, le moins que l’on puisse dire, c’est que l’objectivité de l’encyclopédie en ligne sur le sujet prête à débat. Concernant RT, Wikipédia donne en effet une définition générale qui fait froid dans le dos : « RT est généralement considéré par les médias et experts occidentaux comme un instrument de propagande au service du gouvernement russe et de sa politique étrangère, se livrant à la désinformation, proche de l’extrême droite sur internet, complotiste et antisémite. »

      On notera que l’avis repose donc sur les médias, qui par définition sont les concurrents de RT, et celui d’obscurs « experts occidentaux ». Le son de cloche est tout autre quand on s’intéresse à la fiche Wikipédia de la BBC qui dispose selon l’encyclopédie, « d’une réputation d’excellence culturelle ».

      Si l’intention de YouTube est louable – comprendre qui tient les cordons de la bourse dans le paysage médiatique permet effectivement d’en avoir une lecture plus avisée –, les mesures prises à l’heure actuelle par la plateforme risquent d’avoir l’effet opposé de celui recherché.

  • #police_prédictive : deux chercheurs démontent l’algorithme
    https://www.mediapart.fr/journal/international/130916/police-predictive-deux-chercheurs-demontent-l-algorithme

    PredPol, la société californienne leader du marché, s’est inspirée d’un algorithme de prédiction des répliques de tremblements de terre créé par le sismologue David Marsan. Mais selon les calculs du sociologue Bilel Benbouzid, il s’agit plus d’un outil de management des effectifs que d’un réel algorithme de prédiction des crimes.

    #International #Numérique #PredPol #Surveillance

  • #police_prédictive : deux chercheurs démontent l’algorithme
    https://www.mediapart.fr/journal/international/130916/police-predictive-deux-chercheurs-demontent-lalgorithme

    PredPol, la société californienne leader du marché, s’est inspirée d’un algorithme de prédiction des répliques de tremblements de terre créé par le sismologue David Marsan. Mais selon les calculs du sociologue Bilel Benbouzid, il s’agit plus d’un outil de management des effectifs que d’un réel algorithme de prédiction des crimes.

    #International #Numérique #PredPol #Surveillance

  • Machines à biais - Propublica
    http://alireailleurs.tumblr.com/post/144849747113

    Sur Propublica, la journaliste Julia Angwin et le responsable données Jeff Larson signent une terrible enquête sur les biais racistes des #algorithmes de prédiction des crimes (voir également “Quel est votre score de menace ?”). Ils évoquent en introduction un terrible exemple entre une jeune femme noire arrêtée pour un vol et un homme blanc d’une quarantaine d’année arrêté pour un crime similaire et condamné d’une manière proche. Le second ayant plus d’antécédents criminels que la première. Et bien le programme algorithmique utilisé par la police pour leur attribuer un score de menace classe la jeune femme comme bien plus à risque que l’homme. Deux ans plus tard, la jeune femme n’a pas commis d’autres crimes, alors que l’homme lui a été condamné pour un autre crime à 8 ans de prison. L’évaluation automatique (...)

    #surveillance #nossystemes #société #police_prédictive

  • Des algorithmes pour surveiller... la police - FiveThirtyEight
    http://alireailleurs.tumblr.com/post/140959096625

    Dans le domaine de la police du futur, les annonces vont souvent dans le même sens : effrayantes. #police_prédictive, extensions des formes de #surveillance (notamment via les caméras pour policiers), détermination de votre niveau de menace (ou de risque)… C’est pourquoi l’annonce du conseil municipal de Charlotte, en Caroline du Nord (Wikipédia), visant à appliquer les systèmes prédictifs utilisés par la police à la police elle-même, est intéressante, notamment parce qu’elle retourne les outils utilisés par la police contre la police tout en trouvant des modalités concrètes pour augmenter les contreparties citoyennes au développement de la société de surveillance. Rob Arthur pour FiveThirtyEight, revient sur les débats qui ont agité le conseil municipal de la ville américaine pour autoriser des scientifiques (...)

    #NosSystèmes #citoyenneté

  • Quel est votre score de menace ? - Washington Post
    http://alireailleurs.tumblr.com/post/139650159567

    Décidément, la #police américaine n’est pas en manque d’innovation en terme d’utilisation massive de données pour faire de l’analyse prédictive. On connaissait déjà Predpol. On avait aussi évoqué les inquiétants outils prédictifs à destination de la protection de l’enfance. Voilà que le Washington Post évoque les peu rassurants outils du Centre du crime en temps réel de la police de Fresno (qui, selon Wikipédia existerait aussi à New York, Miami, Houston et Seattle). L’article évoque notamment le logiciel Beware qui permet à la police de chercher dans des millions de données (rapports d’arrestation, registres de propriété, bases de données commerciales, recherches sur le Web profond et sur les réseaux sociaux) pour calculer le potentiel de violence d’un individu et qui donne un résultat sous forme d’un code de (...)

    #police_prédictive #politiques_publiques

  • Vos enfants vont-ils devenir des criminels ? - Pacific Standard
    http://alireailleurs.tumblr.com/post/138658562315

    Vous vous souvenez de Predpol, le logiciel de #police_prédictive… Et bien le service de protection de l’enfance du comté de Los Angeles semble avoir décidé d’aller un cran plus loin, rapporte le Pacific Standard, puisqu’ils viennent de mettre en place un outil d’analyse prédictif pour identifier les enfants qui risquent de se retrouver derrière les barreaux. En analysant des données sur les familles, sur la consommation de drogue, les arrestations, la réussite scolaire, l’enjeu était de détecter les enfants à risque. Si ce pilote a pris fin en 2014, un rapport (.pdf) du Conseil national sur le crime et la délinquance américain, qui s’est penché sur son fonctionnement, suggère que ce pilote était fonctionnel et que d’autres organismes gouvernementaux devraient s’y intéresser. L’analyse prédictive devient de (...)

  • Minority Report sans les pré-cogs
    http://www.lemonde.fr/ameriques/article/2013/01/04/le-logiciel-qui-predit-les-delits_1812195_3222.html

    La ville de Santa Cruz a été la première à se doter, en juillet 2011, du programme PredPol, l’abréviation de predictive policing, un algorithme conçu pour prédire où et quand un crime va se produire. Grâce à une base de données recensant les infractions passées, la formule mathématique – complexe et tenue secrète – permet d’aiguiller très précisément les forces de l’ordre. Classé dans le Top 50 des inventions de l’année 2011 par le magazine Time, PredPol a conquis plusieurs villes américaines ...

    En France on est super-balaize, on utilise des logiciels de cartographie de la délinquance dynamique depuis lurette
    bigbrotherawards.eu.org/article96.html

    et aussi celui-là
    http://fr.wikipedia.org/wiki/Corto

    #minority_report #police_predictive #cartographie_délinquance_dynamique #bigbrother

    • Dans Popular Science de novembre 2011 :
      l’Inspecteur Al Gorithme…

      Extrait du site du Professeur P. Jeffrey Brantingham, où l’on trouve plein de gifs animés montrant des résultats de simulation http://paleo.sscnet.ucla.edu

      Voir aussi le site du logiciel http://www.predpol.com
      Liens fournis aimablement par PWM, un commentateur de l’article du Monde.

      Les animations permettent de se faire une petite idée de comment ça fonctionne (voir par exemple la simulation d’une année de cambriolages).

      La page du logiciel précise que la prévision descend à une maille de 15 mètres sur 15 mètres… soit un peu moins que la largeur d’une rue parisienne typique (rues Saint Honoré, Sèvres, Alésia), moins que la largeur du trottoir aux Champs-Élysées (20 m).

      On y précise :

      PREDICTIVE POLICING IS NOT
      • mapping of past crimes

      Mais PredPol ne semble pas être alimenté de données en temps réel. Ce serait donc plutôt une modélisation/simulation. Avec j’imagine, mais rien ne l’évoque, un recalage avec l’information en temps réel. (?)

    • Intéressant !

      Plusieurs remarques :
      • le sujet est lancé par du sensationnel qui n’a rigoureusement rien à voir avec la suite. On pourrait presque créer un « point Manson »…
      • la prédiction des tremblements de terre, ça tombe bien, on ne sait vraiment pas faire (le lieu est à peu près connu, mais le moment pas du tout) et des répliques, là c’est (un peu) meilleur
      le vrai indicateur ce n’est pas combien vous attrapez de personnes mais combien de crimes vous évitez. Tant que l’indicateur est l’activité policière (État 4001, faits constatés) on ne risque pas de voir arriver ce genre de méthode en France.
      • et, tant qu’à faire du mauvais esprit, est-ce que, par hasard, ça ne marcherait pas parce que le système envoie les flics se promener n’importe où, diminuant leur présence là où il se passe quelque chose (=> moins de faits constatés…)