• Elise Degrave : « Aujourd’hui, l’Etat profile déjà les Belges » - Le Soir Plus
    https://plus.lesoir.be/362211/article/2021-03-22/elise-degrave-aujourdhui-letat-profile-deja-les-belges

    Plusieurs événements d’actualité ont ravivé le spectre du « profilage » des Belges par l’Etat. A tort ? Mais non, ce projet existe déjà. Et de manière très aboutie. L’outil s’appelle « Oasis » (NDLR, Organisation Anti-fraude des Services d’inspection sociale). Il est fonctionnel depuis 2005. Il s’agit d’une centralisation de nombreuses données de l’ONSS, de l’Onem, du SPF Sécurité sociale et du SPF Emploi. Non seulement on centralise, mais on applique des algorithmes qui vont tenter de deviner le comportement des citoyens et trouver des noms de personnes suspectées de fraude sociale. C’est du profilage. En réalité, cette base de données n’est créée par aucune loi, ni arrêté royal. Et on ne trouve que très peu d’informations à son propos, si ce n’est par hasard en farfouillant dans des documents de (...)

    #belgique #droit #informatique #surveillance

    • La centralisation des données, notamment à des fins de surveillance, n’est pas qu’un fantasme. Pour la professeure à l’UNamur, l’outil Oasis, utilisé depuis 2005 pour la lutte contre la fraude sociale, témoigne de cette tendance insidieuse. Et dangereuse pour la démocratie.

      A la faveur de la crise sanitaire, le citoyen a pris conscience de la masse énorme de données à caractère personnel gérées par l’Etat. Et, dans la foulée, des libertés qu’il prend parfois avec la vie privée des citoyens. Ceux-ci découvrent aussi l’existence de projets de croisement de données portés par les administrations, mais sans gage de transparence sur leur finalité, le respect du cadre légal ou le contrôle politique. Elise Degrave, professeure à la Faculté de droit de l’UNamur, y perçoit la confirmation d’une tendance lourde : la centralisation des données, antichambre d’un Etat « automatisé », où le débat démocratique aurait été confisqué par les technocrates.

      Plusieurs événements d’actualité ont ravivé le spectre du « profilage » des Belges par l’Etat. A tort ?

      Mais non, ce projet existe déjà. Et de manière très aboutie. L’outil s’appelle « Oasis » (NDLR, Organisation Anti-fraude des Services d’inspection sociale). Il est fonctionnel depuis 2005. Il s’agit d’une centralisation de nombreuses données de l’ONSS, de l’Onem, du SPF Sécurité sociale et du SPF Emploi. Non seulement on centralise, mais on applique des algorithmes qui vont tenter de deviner le comportement des citoyens et trouver des noms de personnes suspectées de fraude sociale. C’est du profilage.

      En réalité, cette base de données n’est créée par aucune loi, ni arrêté royal. Et on ne trouve que très peu d’informations à son propos, si ce n’est par hasard en farfouillant dans des documents de l’administration. Rien sur le site de la Banque Carrefour de la Sécurité sociale (BCSS), ni de l’ONSS. Quand on s’adresse à l’administration, on ne reçoit que quelques informations parcellaires, mais jamais la copie des algorithmes, ni même d’information claire à leur sujet.

      On apprend par contre, documents publics à l’appui, qu’Oasis va être prochainement remplacé par le projet « Big data Analytics Platform ». Le marché, estimé à 6,75 millions d’euros, a été attribué par la Smals (NDLR, l’ASBL informatique de l’Etat) à Deloitte Consulting & Advisory le 9 juillet 2019.

      Ces algorithmes sont censés traduire le droit pour rendre la lutte contre la fraude plus efficace. N’est-ce pas légitime ?

      Oui, mais il faut avoir des outils dont on peut contrôler le fonctionnement. Ce qui n’est pas le cas. On ne sait ni par qui, ni comment ils ont été faits. Or, on sait qu’un algorithme ne peut traduire parfaitement des règles de droit. Il peut être biaisé, discriminatoire. Sans contrôle, les algorithmes peuvent renforcer les inégalités, surtout lorsqu’ils s’appliquent à l’échelle d’une population.

      Par ailleurs, il y a une masse énorme de données. Donc, on ne peut pas exclure qu’il n’y a pas d’erreurs. Ni les employeurs ni les travailleurs ne peuvent vérifier ces données. On ne sait même pas que ça existe. Ce qui amène parfois à cibler des gens qui n’ont rien fait. Et celui qui est visé par un algorithme ne va pas comprendre pourquoi il se retrouve dans le radar. Les inspecteurs eux-mêmes disent ne pas comprendre pourquoi ils vont contrôler tel employeur plutôt qu’un autre. On n’a pas la main sur l’outil. Il y a juste un ordinateur qui vous crache des noms.

      Le conseil des ministres restreint vient d’adopter un avant-projet de loi, révélé par La Libre, consacrant la fin des visites du fisc au domicile des contribuables. Tout passerait par le « cloud ».

      Cela pourrait être encore pire. On risque de donner tout pouvoir à l’outil informatique. Or, sans garanties spécifiques pour les personnes concernées, une décision prise entièrement par ordinateur est contraire au Règlement général sur la protection des données.

      L’informatique peut-elle biaiser le fonctionnement de l’administration ?

      C’est ce qui s’est passé au Pays-Bas avec le système Syri, semblable à Oasis. Des études ont démontré que l’outil ciblait en priorité les quartiers de pauvres et de migrants. Les algorithmes étaient biaisés. Le Rapporteur spécial des Nations unies sur l’extrême pauvreté et les droits de l’homme, le professeur Philip Alston, épinglait que si cela se passait dans la vraie vie, on verrait une masse d’inspecteurs venir systématiquement frapper aux portes dans ce quartier, et jamais ailleurs. Là on verrait qu’il y a un problème. Tandis qu’ici, avec un outil informatique dont on ne sait même pas qu’il existe, on ne voit rien. Et on ne sait même pas qu’il y a un souci. Ce qui pose un problème de démocratie, parce qu’il n’y a même plus de possibilités de dialoguer avec l’administration.