Next INpact

/article

  • Des centaines d’accidents du travail à SpaceX depuis 2014
    https://www.nextinpact.com/article/72861/des-centaines-daccidents-travail-a-spacex-depuis-2014

    Reuters a longuement enquêté sur les conditions de travail dans l’entreprise de lancements spatiaux SpaceX et a pu compter, depuis 2014, au moins 600 accidents du travail qui n’avaient pas été rendus publics jusque-là, dont un décès.

    Les milliardaires veulent le bien de la planète et du grand nombre. La preuve, ils n’hésitent pas à casser quelques oeufs, eux, pour préparer l’omelette du futur. Pas comme tous ces trouillards qui empêchent le progrès avec un code du travail totalitaire.

  • Les navigateurs web devront-ils accepter les certificats de sécurité imposés par les autorités ?
    https://www.nextinpact.com/article/72799/les-navigateurs-web-devront-ils-accepter-certificats-securite-imposes-pa

    Plus de 300 chercheurs en cybersécurité, et plus d’une dizaine d’ONG et d’entreprises expertes en question de protection de la vie privée, alertent les instances européennes d’une discrète modification d’un règlement qui pourrait permettre aux États membres de l’UE de surveiller le trafic Internet de n’importe quel citoyen européen.

  • Mozilla propose un dépôt Debian pour Firefox Nightly, un changement plus important qu’il n’y paraît
    https://www.nextinpact.com/article/72793/mozilla-propose-depot-debian-pour-firefox-nightly-changement-plus-import

    On serait en droit de se demander en quoi l’arrivée d’un canal dédié pour la branche la plus instable de Firefox sur les distributions de type Debian pourrait intéresser davantage que quelques personnes.

    Il y a deux raisons. La première concerne cette même population : bien qu’il faille entrer quelques lignes de commande, le résultat est plus pratique et mieux intégré au système, puisque le gestionnaire de paquets est informé du dépôt et s’occupera lui-même des mises à jour en même temps que le reste du système.

    La seconde et la plus significative est que Mozilla indique, à la fin de son billet, qu’après une « période de test », ces paquets deviendront disponibles pour les branches bêta, ESR et Release de Firefox.

  • Deepfakes pornographiques : quand l’intelligence artificielle sert à humilier
    https://www.nextinpact.com/article/72477/deepfakes-pornographiques-quand-lintelligence-artificielle-sert-a-humili

    Avec les progrès de l’IA, notamment générative, il n’a jamais été aussi simple de créer des deepfakes, ces manipulations d’images qui peuvent impliquer des personnes réelles. Certains s’en servent pour créer des montages pornographiques. Premières victimes de cette dérive : les femmes.

    « Ah, je viens de tomber sur un truc horrible ! » Le 6 août, la youtubeuse Lena Situations publie l’un de ses habituels vlogs d’août (chaque année, elle publie une vidéo par jour pendant le mois d’été). À la huitième minute de sa vidéo, on la suit, en route pour aller rencontrer une copine, quand elle tombe sur un deepfake pornographique. À Marcus, l’ami qui l’accompagne, elle explique : « C’est des gens qui font des montages, ils mettent ta tête sur le corps d’une femme nue. (…) Et y a tellement de meufs sur internet qui vivent ça. C’est horrible. C’est dégueulasse. »

    Si les prouesses d’un ChatGPT et des concurrents ont de quoi épater, si les progrès de l’intelligence artificielle tiennent largement en haleine, ces progrès technologiques apportent aussi leur lot d’usages négatifs. En matière de génération d’images, depuis 2018 au moins, des alertes se multiplient sur la question des deepfakes, aussi nommés hypertrucages, notamment à caractère pornographique.

    #deep_fake #cyberharcèlement #slut_shaming #women_hating

    https://fr.wikipedia.org/wiki/Slut-shaming

  • La Cour suprême du Colorado valide les mandats d’arrêt par mots-clefs inversés
    https://www.nextinpact.com/article/72680/la-cour-supreme-colorado-valide-mandats-darret-par-mots-clefs-inverses

    La Cour suprême du Colorado juge que les policiers ont agi de bonne foi en demandant à Google une liste de personnes ayant recherché certains mots clés. La haute juridiction précise néanmoins que si des « problèmes dystopiques apparaissent, elle pourrait prendre des mesures ». Un « cas fascinant » estiment certains juristes, qui en inquiète d’autres, dont l’EFF.

  • Asie du Sud-Est : des centaines de milliers de personnes forcées à réaliser des fraudes en ligne
    https://www.nextinpact.com/article/72323/asie-sud-est-centaines-milliers-personnes-forcees-a-realiser-fraudes-en-

    Le Haut Commissariat des Nations Unies aux Droits de l’Homme (HCDH) détaille dans un rapport le système criminel qui force des centaines de milliers de personnes à réaliser arnaques sentimentales et jeux illégaux en ligne, dans des conditions indignes des droits humains.

    Régulièrement, les études le démontrent : les faux investissements et les escroqueries sentimentales font perdre des milliards de dollars à des centaines de milliers d’internautes. Mais sait-on seulement qui réalise ces escroqueries, et pourquoi ? Depuis 2021, le Haut Commissariat des Nations Unies aux Droits de l’Homme (HCDH) relève des alertes sur le lien entre ces activités frauduleuses et des trafics d’êtres humains dans différents pays d’Asie du Sud-Est.

    Arnaques en ligne : plus de victimes chez les 30-49 ans, plus de pertes chez les seniors
    La criminalité organisée occupe 20 % du temps de nos services de renseignement

    Un Fraude Fight Club pour sensibiliser aux arnaques sur Instagram

    De fait, en Birmanie, au Laos, en Thaïlande, au Cambodge ou encore aux Philippines, des réseaux criminels réduisent des centaines de milliers de personnes en situation de quasi-esclavage, selon un rapport publié par l’instance. Le but : réaliser toutes sortes de fraudes numériques pour leur compte.
    Deux types de victimes pour un même crime

    La situation est complexe, car la fraude en ligne crée deux types de victimes, note d’entrée de jeu le HCDH : celles qui perdent les économies d’une vie ou se retrouvent endettées à cause des schémas dans lesquels elles ont été embarquées, mais aussi ceux et celles qui sont contraints à réaliser les escroqueries.

    Arnaques aux sentiments (dites « pig-butchering »), fraude aux crypto actifs, jeux illégaux… Si les victimes de ces gangs criminels ne coopèrent pas, elles se voient menacées de traitements cruels, de détentions arbitraires, de violences sexuelles et diverses autres attaques directes envers leurs droits humains. L’ampleur du phénomène est complexe à saisir, mais le rapport pointe diverses sources qui estiment à 120 000 le nombre de personnes concernées au Myanmar, à 100 000 celles qui le seraient au Cambodge.

    Les auteurs des arnaques en ligne « subissent des traitements inhumains tout en étant forcées de commettre des crimes. Ce sont des victimes. Ce ne sont pas des criminels », insiste le haut-commissaire des Nations unies aux droits de l’homme Volker Türk.
    L’activité des « filières » de l’arnaque aggravée par la pandémie

    Selon le HCDH, les arnaques rapportent à ceux qui les orchestrent des milliards de dollars chaque année. En 2021, les seuls vols de cryptomonnaies ont pesé 7,8 milliards de dollars à travers le monde. Vu le secret qui entoure ces activités, cela dit, l’instance admet qu’il est difficile de chiffrer précisément les sommes amassées.

    Parmi les autres activités concernées, les jeux d’argent sont plus ou moins interdits en Chine, au Cambodge, en Thaïlande et au Laos, ce qui n’a pas empêché des filières criminelles de s’y installer. Dans d’autres cas, comme aux Philippines, des activités plus légales se créent, sous réserve qu’elles visent des joueurs situés hors du pays.

    Les réseaux d’arnaques en ligne existent depuis longtemps dans la région, mais le HCDH rapporte une augmentation de ce type d’opérations depuis 2016, en particulier au Cambodge. Quant à la Birmanie, où des filières criminelles œuvraient déjà en la matière, le coup d’État militaire de février 2021 semble avoir aggravé la situation.

    En provoquant la fermeture de tous les établissements plus ou moins légaux, la pandémie de Covid-19 a poussé les filières criminelles à chercher de nouveaux espaces où exercer ainsi que de nouvelles filières où « recruter » les bras nécessaires au maintien de leurs opérations. La période a aussi poussé un nombre croissant de gens en ligne, ce qui a accru les possibilités d’arnaques.
    Abus de la vulnérabilité des personnes migrantes

    La pandémie s’est donc aussi traduite par une tendance accrue des trafiquants à se tourner vers des personnes migrantes. Avec les fermetures de frontières et de nombreuses entreprises, celles-ci se sont en effet retrouvées dans des situations particulièrement vulnérables.

    La plupart des personnes victimes de ces trafics sont des hommes, note le rapport, même si la présence de femmes et d’adolescents a été notée dans quelques cas. Ils sont souvent éduqués, avec des diplômes en informatique et des compétences multilingues, ce qui est inhabituel dans les autres affaires de trafic d’êtres humains documentées dans la région.

    Dans certains cas, note toutefois le HCDH, des citoyens des pays concernés sont, eux aussi, embarqués dans ces trafics inhumains.
    Le rôle des plateformes

    Le HCDH note le rôle particulier que jouent les réseaux sociaux et les autres plateformes numériques dans les opérations d’arnaques. Comme le reste du monde, l’Asie du Sud-Est a connu une intense transformation numérique. Résultat, « les habitants de l’Asie du Sud-Est accordent une grande confiance aux plateformes de médias sociaux, mais dans le même temps, la réglementation protégeant les droits des utilisateurs en ligne est limitée. »

    Or les trafiquants sont, eux aussi, passés à l’ère numérique : le rapport pointe leur usage croissant des plateformes pour recruter des victimes de leur trafic, notamment à l’aide de fausses offres d’emplois. Ils laissent entendre qu’ils embauchent pour des postes de développeurs, dans le marketing ou dans les ressources humaines. Dans certains cas, les publicités ciblent même les populations de pays étrangers, les trafiquants se chargeant alors du transport.

    Facebook, Grindr, Instagram, LinkedIn, OkCupid, Line, WeChat et d’autres : ce sont les mêmes espaces numériques qui sont ensuite utilisés pour arnaquer des internautes, en plus des faux sites web utilisés pour tromper des internautes.

    En juin, la police philippine a sauvé 2 700 personnes venues de Chine, des Philippines, du Vietnam, d’Indonésie et d’une dizaine d’autres pays forcées de réaliser des activités de délinquance numérique. L’Associated Press soulignait déjà l’ampleur croissante du problème, notant que les chefs d’États de l’Association des Nations Unies du Sud-Est (ASEAN) s’étaient mis d’accord quelques semaines plus tôt pour coopérer dans la lutte contre ce type de criminalité.

    #Cybercriminalité #Arnaques #Mafias

  • La loi sur le contrôle parental en service minimum après publication des décrets
    https://www.nextinpact.com/article/72166/la-loi-sur-controle-parental-en-service-minimum-apres-publication-decret

    Mi-juillet, les décrets d’application de la loi sur le contrôle parental ont été publiés, rendant obligatoire la possibilité de bloquer les téléchargements d’applications interdites aux mineurs ainsi que l’accès à certaines applications potentiellement déjà installées. La CNIL aurait voulu ajouter la possibilité d’activer des listes noires et blanches pour la navigation sur le web et critique le décret minimaliste concernant les FAI.

    Si vous avez des détails sur les conséquences techniques réelles, n’hésitez pas à les partager.

  • Profitant d’un congé, un adjudant-chef aurait illégalement validé 300 techniques de renseignement
    https://www.nextinpact.com/article/71773/profitant-dun-conge-adjudant-chef-aurait-illegalement-valide-300-techniq

    Dans son signalement au parquet de Paris, la major déplore que le colonel « n’a jamais répondu à ce courriel », mais « décidé de dissimuler les irrégularités de procédure » aux autorités concernées (à savoir le premier ministre, la CNCTR, le GIC et la hiérarchie de la gendarmerie), avant d’être elle-même victime de harcèlement à ce sujet :

    « Les mois suivant ma dénonciation des faits, j’ai subi un acharnement. Le 25 avril 2022, j’ai été renvoyée de mes fonctions pour avoir dénoncé cette irrégularité de procédure, ce non-respect du Code de la sécurité intérieure à ma hiérarchie. »

    « L’adjudant-chef, auteur de la faute, aurait, lui, été promu par le colonel Garence », souligne Mediapart, à qui plusieurs sources ont confié que la section AC3 (qui couvre les affaires militaires et atteintes à la sûreté de l’État) du parquet de Paris aurait ouvert une enquête préliminaire, confiée à la DGSI.

  • Accès au porno : vers une nouvelle loi pour un blocage sans juge
    https://www.nextinpact.com/article/71546/acces-au-porno-vers-nouvelle-loi-pour-blocage-sans-juge

    Le gouvernement prépare actuellement son « projet de loi visant à sécuriser et réguler l’espace numérique ». Selon les informations de Next INpact, le gouvernement veut revoir totalement les règles et passer par un blocage sans juge . Ceci alors que la justice, saisie par l’Arcom, devrait rendre sa première décision de blocage le 7 juillet prochain.

    Les lois antiterrorisme terrorisent les écologistes. A quoi pourront donc servir les lois antipédoporno ?

    Va falloir taper encore plus fort sur les casseroles...

  • L’Intérieur compte acquérir 7 000 capteurs nomades de contrôles biométriques, pour 21 millions d’euros
    https://www.nextinpact.com/article/71444/linterieur-compte-acquerir-7-000-capteurs-nomades-controles-biometriques

    Le ministère de l’Intérieur profite du renouvèlement de son marché de capteurs d’empreintes digitales et de lecteurs de documents d’identité pour investir 1,6 million d’euros dans des « solutions de prises d’images faciales », plus 21 millions de « capteurs nomades d’empreintes digitales doigts et palmaires ».

    #police #paywall

  • Dangers des grands modèles de langage : des chercheuses avaient prévenu
    https://www.nextinpact.com/article/71011/dangers-grands-modeles-langage-chercheuses-avaient-prevenu

    ChatGPT et ses diverses déclinaisons, toutes basées sur les grands modèles de langage, commencent à subir quelques critiques. Mais des chercheuses avaient déjà rassemblé beaucoup de griefs contre cette technologie en 2020 dans un article scientifique qui, pour certaines, leur a coûté leur poste.

    Fin octobre dernier, le PDG d’OpenAI a présenté ChatGPT comme un outil utilisant la technologie des grands modèles de langage (Large Langage Models en anglais, LLM), mais avec « encore beaucoup de limites – c’est vraiment une version de recherche ». Plusieurs mois plus tard, le grand public a pu se rendre compte de ces limites à chaque publication d’outils similaires, que ce soit quand Microsoft intègre ChatGPT dans Bing, quand Google présente Bard ou quand Meta a sorti et rapidement retiré Galactica.

    Si on ne peut reprocher à la presse et au grand public de n’avoir réagi que sur pièces, après avoir testé les différentes versions publiques de ces outils, les chercheurs et ingénieurs des GAFAM qui les ont confectionnés ne peuvent faire semblant de ne pas avoir été prévenus.

    En effet, en 2020, quatre chercheuses, Emily Bender, Timnit Gebru, Angelina McMillan-Major et Margaret Mitchell finalisaient un article scientifique qui rassemblait les différentes critiques qui pouvaient être faites (par elles-mêmes, mais aussi par d’autres chercheurs qu’elles citent), à l’époque, sur l’utilisation des grands modèles de langage et intitulé « On the Dangers of Stochastic Parrots : Can Language Models Be Too Big ? 🦜 » [PDF] (en français, « À propos des dangers des perroquets stochastiques : les modèles de langages peuvent-ils être trop gros ? 🦜 »).

    Timnit Gebru et Margaret Mitchell, qui travaillaient à l’époque chez Google, se sont vu reprocher le contenu de l’article par leur employeur et ont été licenciées. L’article finira par être publié en mars 2021 (avec la signature d’une certaine Shmargaret Shmitchell appartenant à l’institution de « l’Éther » à la place de celle de Margaret Mitchell).

    Google, IA et éthique : « départ » de Timnit Gebru, Sundar Pichai s’exprime
    IA et éthique : aprés Timnit Gebru, Google enquête sur Margaret Mitchell, une autre de ses employées

    Leur licenciement a fait grand bruit à l’époque, mais les arguments de l’article ont finalement eu peu de répercussions médiatiques. La sortie des ChatGPT et les critiques actuelles en ont eu beaucoup plus, sans doute parce qu’il était difficile de se rendre compte, concrètement, des implications que cette technologie pouvait avoir.

    Revenons un peu sur les critiques que les chercheuses formulaient à l’époque sur les modèles de langage (ML).
    Des robots perroquets probabilistes

    S’ils sont maintenant utilisés pour créer des chatbots, les quatre chercheuses prévenaient dans leur article que « le texte généré par un ML n’est pas fondé sur une intention de communication, un modèle du monde ou un modèle de l’état d’esprit du lecteur. Il ne peut pas l’être, parce que les données d’entrainement n’ont jamais inclus le partage de pensées avec un auditeur ».

    Pourtant, ChatGPT et autres ont permis de l’expérimenter : quand nous les utilisons, l’impression de discuter avec la machine est grande. Les quatre chercheuses reconnaissaient les « qualités de plus en plus fluides du texte généré automatiquement ».

    Mais ce qu’elles soulignaient, c’est que même si c’est contre-intuitif, c’est en fait « notre perception du texte en langage naturel [...] [qui] est médiée par notre propre compétence linguistique et notre prédisposition à interpréter les actes de communication comme véhiculant un sens et une intention cohérents ». C’est-à-dire que ce n’est pas ChatGPT qui met du sens et des intentions dans le texte qu’il génère, mais la personne qui lit sa réponse. Et nous nous créons ainsi une illusion.

    Timnit Gebru et ses collègues expliquaient bien que, contrairement à cette illusion que nous donne le texte en sortie, « un ML est un système qui assemble au hasard des séquences de formes linguistiques qu’il a observées dans ses vastes données d’apprentissage, en fonction d’informations probabilistes sur la façon dont elles se combinent, mais sans aucune référence à la signification ». Elles le résument en deux mots, les modèles de langage sont des « perroquets stochastiques » (« Stochastic Parrots », en anglais), ou en termes plus accessibles, des perroquets probabilistes.
    Des données d’entrainement problématiques

    La fluidité des textes générés par ces modèles de langage est due à l’utilisation de la masse de données accessible sur le web comme données d’entraînement. Mais dès 2020, les chercheurs ont pointé des problèmes dans cet entrainement : l’enregistrement de stéréotypes et de dénigrements à propos de genres, de « races » (au sens de catégorie sociale), d’ethnies et de handicaps. Les quatre autrices expliquent dans leur article que « la taille ne garantit pas la diversité ».

    Et effectivement, puisque les modèles de langage créent des textes en fonction de probabilités de retrouver des groupes de mots dans les données d’entrainement, plus des groupes de mots se retrouvent dans ces données, plus il y a de chances qu’ils se retrouvent dans le texte généré. « Les voix des personnes les plus susceptibles d’adhérer à un point de vue hégémonique sont également les plus susceptibles d’être retenues », concluent-elles.

    Concrètement, elles expliquent que « dans le cas de l’anglais américain et britannique, cela signifie que les opinions suprémacistes blanches, misogynes, âgistes, etc. sont surreprésentées dans les données d’entraînement, ce qui non seulement dépasse leur prévalence dans la population générale, mais permet également aux modèles entraînés sur ces ensembles de données d’amplifier davantage les biais et les préjudices ».

    Les chercheuses citaient plusieurs études montrant que ce genre de modèles présentaient divers types de préjugés sur des caractéristiques surveillées comme le sexisme, le racisme etc. Mais elles expliquaient aussi que d’autres biais étaient beaucoup moins étudiables car, si nous sommes conscients de l’existence du racisme, d’autres sujets sur lesquels nous sommes moins attentifs peuvent subir aussi des biais qu’il est dès lors difficile de repérer.

    Les chercheuses pointaient aussi le fait que ces données d’entrainement et donc les modèles de langage qui se basent dessus sont statiques. Alors que le monde et notre perception de celui-ci bougent en permanence, que les mouvements sociaux déstabilisent les récits dominants et que les contenus publiés sur internet bougent en permanence, les modèles de langage, eux, restent figés sur une représentation du monde donnée à un moment donné. Dans leur article, elles insistent sur le fait que toute volonté de rationaliser des définitions de sujets sociaux est nécessairement politique, « que les développeurs choisissent ou non la voie du maintien du statu quo ».
    Risques de dissémination des biais et de désinformation

    Pour Timnit Gebru et ses collègues, le risque d’utiliser ces grands modèles de langage qui vont produire ces textes biaisés est aussi de disséminer sur internet encore plus de textes biaisés. Puis que les prochains grands modèles de langage soient entrainés sur ces textes générés par des grands modèles de langage, perpétuant et amplifiant les biais encodés dans les premiers modèles.

    L’article pointait aussi, déjà, le risque de générations automatiques et massives de textes de désinformation. Les autrices citent notamment un rapport des chercheurs du Centre sur le terrorisme du Middlebury Institute of International Studies Kris McGuffie et Alex Newhouse, mis en ligne en septembre 2020, qui montre comment GPT-3 pourrait être utilisé pour générer du texte à la manière d’un théoricien conspirationniste. McGuffie et Newhouse écrivaient : « Si les mesures préventives d’OpenAI sont solides, la possibilité d’une copie non réglementée de cette technologie représente un risque important pour la radicalisation et le recrutement en ligne à grande échelle. En l’absence de mesures de protection, il est probable que la mise en place d’armes efficaces qui nécessitent peu d’expérimentation soit un succès ».

    Un autre article, du chercheur du Alan Turing Institute de Londres Luciano Floridi et de Massimo Chiriatti d’IBM Italie, publié lui aussi fin 2020, prévoyait que « D’une part, la publicité en ligne en profitera. Compte tenu des modèles commerciaux de nombreuses entreprises en ligne, les appâts à clics de toutes sortes seront stimulés par des outils comme GPT-3 [...]. D’autre part, les fausses nouvelles et la désinformation peuvent également être stimulées. »
    Coûts environnementaux

    Dans l’article de Timnit Gebru et de ses collègues, les questions de coûts économiques et environnementaux étaient aussi soulevés. Elles y expliquaient que l’émission d’un entrainement d’un modèle de langage de la famille GPT était estimée à 284 tonnes de CO2. L’amélioration successive des techniques et le caractère statique des données d’entrainement évoqué ci-dessus impliquent qu’un modèle de langage est voué à être mis à jour, ne serait-ce que pour prendre en compte les nouveaux événements qui ont eu lieu.
    Des dangers constatés depuis la sortie de ChatGPT

    Ces dangers pointés par ces chercheuses et chercheurs en 2020, nous les constatons maintenant que chatGPT et ses copies sont sortis. L’entreprise Newsguard a, par exemple, observé que dans 80% de cas de fausses informations qu’elle a soumises à ChatGPT, celui-ci a produit des mensonges et des discours violents très convaincants. Des biais sexistes et racistes ont aussi été dévoilés sur ce même agent conversationnel. Le chatbot de Bing s’est noyé dans l’outrance après avoir été provoqué. Celui-ci et Bard (la version de Google) ont aussi affirmé des bêtises lors de leurs présentations respectives. Même si la question environnementale a fait l’objet de moins d’attention, le « sale secret » de leur forte émission de CO2 a quand même été évoquée par Wired.
    Peu de garde-fous mis en place depuis l’alerte

    En comparant les alertes lancées par les chercheuses et chercheurs en 2020 et les constats que nous pouvons faire maintenant, il est difficile de constater une réelle amélioration de la technologie pour éviter les problèmes signalés.

    En ce qui concerne les propos les plus biaisés, certes, OpenAI a rendu son modèle de langage un peu plus responsable, mais rapidement un outil comme DAN (pour « Do Anything Now ») a permis de contourner ses protections contre les dérives. Et si ChatGPT a ensuite été plus restrictif pour bloquer DAN, une version permet de passer outre. De plus, OpenAI n’a finalement mis qu’une rustine sur les trous les plus visibles. Les biais moins saillants restent.
    OpenAI en cheval de Troie

    On ne peut que constater que les alertes qu’ont lancées les chercheurs, et notamment ces quatre chercheuses, n’ont fait que retarder un peu l’arrivée des grands modèles de langage devant le grand public. La technologie n’a pas beaucoup évolué depuis 2020. D’ailleurs, Baidu prévoit de reprendre son modèle de langage publié en 2021 pour développer son propre agent conversationnel.

    Le défi, pour les grandes multinationales, depuis, était plutôt de faire accepter l’utilisation de ces modèles de langage malgré les critiques. Quelques semaines avant la publication de ChatGPT, Meta s’y est risqué avec son Galactica et a d’ailleurs essuyé une salve de critiques qui l’a obligé à le retirer au bout de trois jours.

    La structure de la relation entre OpenAI et Microsoft a permis à ce dernier de profiter d’un éventuel paravent en cas d’une même salve. Si ChatGPT était critiqué, ce n’était finalement que la startup OpenAI qui échouerait. Finalement, alors que le robot conversationnel a fait l’objet d’un buzz positif dans l’ensemble, Microsoft a pu assumer d’en être le partenaire principal et a même rajouté quelques milliards dans la startup.

    Depuis, c’est la course au chatbot reposant sur les grands modèles de langage et il va être difficile d’imposer aux géants du numérique de répondre aux dangers que soulignaient les chercheurs et chercheuses en 2020. Microsoft est pourtant au courant des biais discriminants et de la tendance à la désinformation que peuvent prendre ces machines depuis qu’il a testé de brancher l’agent conversationnel Tay sur Twitter en 2016.

    #ChatGPT #Modèles #Dangers

  • L’Italie bloque ChatGPT, les grands modèles de langage inquiètent
    https://www.nextinpact.com/article/71372/litalie-bloque-chatgpt-grands-modeles-langage-inquietent

    Après le chatbot Replika début février, ChatGPT subit les foudres de l’autorité italienne. L’annonce a été faite par la Garante per la protezione dei dati personali (GPDP), l’équivalente de notre CNIL. D’autres institutions en Europe et aux États-Unis s’inquiètent aussi de ChatGPT, mais c’est le premier blocage du genre.

    La GPDP n’y va pas par quatre chemins et ne veut laisser « aucun moyen pour ChatGPT de continuer à traiter des données en violation des lois sur la protection de la vie privée ». Le régulateur a ainsi imposé « une limitation temporaire, mais immédiate au traitement des données des utilisateurs italiens par OpenAI ». Cette dernière est pour rappel à l’origine de ChatGPT.
    Les griefs de la GPDP contre ChatGPT

    Dans son exposé des griefs, la GPDP commence par rappeler que ChatGPT « a subi le 20 mars une perte de données concernant les conversations des utilisateurs et des informations relatives au paiement des abonnés ».

    L’autorité à d’autres reproches à faire, notamment l’absence « d’information aux utilisateurs et aux personnes dont les données sont collectées par Open AI et, plus important encore, il ne semble pas y avoir de base juridique par rapport à la collecte et au traitement massifs de données personnelles afin d’"entrainer" les algorithmes ».

    La GPDP s’appuie sur des tests mis en ligne pour affirmer que « les informations mises à disposition par ChatGPT ne sont pas toujours factuelles, de sorte que des données personnelles inexactes sont traitées ». Elle reproche enfin l’absence de vérification d’age alors que, selon les conditions d’utilisation d’OpenAI, ChatGPT est interdit au moins de 13 ans.

    Le régulateur italien explique enfin qu’OpenAI dispose de 20 jours pour lui notifier les mesures mises en place pour se conformer à son injonction, « faute de quoi une amende pouvant aller jusqu’à 20 millions d’euros ou 4 % du chiffre d’affaires annuel mondial pourra être infligée ».
    La CNIL française n’a pas reçu de plainte

    Interrogée par l’AFP, la CNIL précise n’avoir « pas reçu de plainte et n’a pas de procédure similaire en cours ». La Commission s’est néanmoins rapprochée de son homologue « afin d’échanger sur les constats qui ont pu être faits ».

    La GPDP s’appuyant sur le RGPD pour expliquer sa décision, la CNIL et d’autres pays pourraient suivre le pas si les autorités arrivent à la même conclusion.
    Europol et le BEUC s’inquiètent, une plainte à la FTC

    Quoi qu’il en soit, la GPDP italienne n’est pas la seule institution à s’émouvoir de ChatGPT, et les inquiétudes ne datent pas d’hier. Europol a publié un document cette semaine sur « l’impact des grands modèles de langage [LLM, ndlr] sur l’application de la loi », expliquant que des criminels pourraient se servir de l’intelligence artificielle pour leurs méfaits.

    Dangers des grands modèles de langage : des chercheuses avaient prévenu

    Cette semaine également, le Center for AI and Digital Policy (CAIDP) a déposé une plainte auprès de la FTC (Federal Trade Commission). Elle « exhorte la FTC à enquêter sur OpenAI et à suspendre la vente de produits utilisant des grands modèles de langage, tels que GPT-4 ». Le CAIDP leur reproche notamment de décrire « comment commettre des actes terroristes, comment assassiner des dirigeants politiques et comment dissimuler la maltraitance des enfants. GPT-4 a la capacité d’entreprendre une surveillance de masse à grande échelle, en combinant sa capacité à ingérer des images, lier des identités et développer des profils complets ».

    Dans la foulée, le Bureau européen des unions de consommateurs (BEUC) a demandé « aux autorités européennes et nationales d’ouvrir une enquête sur ChatGPT et les chatbots similaires ».

    Le BEUC rappelle que l’Union européenne travaille actuellement sur la « première législation au monde sur l’IA », mais le Bureau craint qu’il faille encore « des années » avant que la loi n’entre en vigueur. Il ne souhaite donc pas laisser « les consommateurs exposés au risque de préjudice d’une technologie qui n’est pas suffisamment réglementée pendant cette période intérimaire ».
    Le Sénat dégaine sa proposition de résolution

    De manière opportune, le Sénat explique que sa commission des affaires européennes « a adopté à l’unanimité hier matin une proposition de résolution européenne pour appuyer l’instauration d’une réglementation européenne » dans le domaine des intelligences artificielles.

    La commission affirme « la nécessité de prévenir une utilisation excessive de cette technologie, et d’en promouvoir un déploiement conforme aux valeurs européennes, c’est-à-dire au service de l’humain, fiable et éthique ». Les rapporteurs rappellent que « mal utilisée, l’intelligence artificielle est susceptible de causer de graves atteintes aux droits fondamentaux, qu’il s’agisse du respect de la vie privée, de l’accès à la justice ou encore du respect du principe de non-discrimination ».

    La proposition de résolue comporte plusieurs points, notamment « l’interdiction générale de certaines applications particulièrement contraires aux valeurs de l’Union européenne ». Le document demande aussi d’« expliciter l’articulation entre la réglementation européenne sur l’intelligence artificielle et le règlement général sur la protection des données ».

    Il ne s’agit que d’une proposition de la commission des affaires européennes, qui est désormais renvoyée à la commission des lois, « qui peut ou non s’en saisir avant qu’elle ne devienne définitivement une résolution du Sénat d’ici un mois ».

    #ChatGPT #Données_personnelles #Italie #Interdiction

  • ChatGPT va être interdit par la Ville de #Montpellier au sein de ses équipes « par précaution et à titre conservatoire » - midilibre.fr
    https://www.midilibre.fr/2023/03/27/chatgpt-va-etre-interdit-par-la-ville-de-montpellier-au-sein-de-ses-equipe

    C’est une première en France, qui pourrait inspirer d’autres collectivités. Dans une note interne adressée au directeur général des services de la Ville et de la Métropole de Montpellier, l’adjoint au maire chargé du numérique, Manu Reynaud, demande à bannir ChatGPT au sein de ses équipes. « Et même à nos interlocuteurs dans le cadre de contrats qui nous lient », ajoute-t-il. Une décision « par précaution et à titre conservatoire », le temps de digérer le bon usage d’un outil, qu’il présente comme « une révolution dont on ne connaît pas encore l’ampleur ».

    • Le même, en novembre 2022 : IA contre IA : Montpellier interdit la reconnaissance faciale à l’aide de ChatGPT
      https://www.nextinpact.com/article/70661/ia-contre-ia-montpellier-interdit-reconnaissance-faciale-a-aide-chatgpt

      Étrangement, l’adjoint explique ensuite avoir demandé à l’IA ChatGPT, censée émettre des avis mesurés et « responsables », de lui rédiger un discours expliquant que la reconnaissance faciale « est une technologie utile et nécessaire pour la sécurité, comme ça, ça m’évitait d’avoir tout à écrire ».

      Après s’être exécuté, avec les arguments convenus auxquels on est en droit de s’attendre, l’élu lui a demandé de rédiger un second discours « pour dire que la reconnaissance faciale est une technologie dangereuse pour les libertés publiques », auquel ChatGPT a là encore répondu avec les arguments usuels. 

      Puis, Manu Reynaud lui a réclamé un troisième discours, rajoutant à la question précédente « quand on utilise l’intelligence artificielle ».

      À quoi ChatGPT a répondu qu’ « il est important de rappeler que la reconnaissance faciale peut être utilisée pour des fins utiles, telles que la détection de criminels ou l’amélioration de la sécurité dans les aéroports ». Avant d’y préciser que « cependant, il existe également des risques potentiels qui doivent être pris en compte ».

  • #Crest : extension de l’inutile et coûteuse vidéosurveillance
    https://ricochets.cc/Crest-extension-de-l-inutile-et-couteuse-videosurveillance.html

    A Crest l’obsession sécuritaire continue son sillon délétère, avec une nouvelle extension/modernisation de la vidéosurveillance dont même une étude commandée par les gendarmes dit que c’est inutile. Mëme la Cour des comptes critique la vidéosurveillance à Paris. A Crest, la résignation générale et les institutions anti-démocratiques existantes permettent à l’équipe du seigneur Mariton de continuer ses sales petites politiques aberrantes tranquillement : Crest 2021 : Mr Mariton et son équipe veulent encore (...) #Les_Articles

    / Crest, #Fichage,_contrôle_et_surveillance, Autoritarisme, régime policier, démocrature...

    #Autoritarisme,_régime_policier,_démocrature...
    https://www.nextinpact.com/article/49805/la-cour-comptes-deplore-encore-derives-videosurveillance-a-paris

  • La CNIL condamne EDF à une amende de 600 000 euros pour violation du RGPD, les détails de cette décision
    https://www.nextinpact.com/article/70493/la-cnil-condamne-edf-a-amende-600-000-euros-pour-violation-rgpd-details-

    EDF est condamnée par la formation restreinte de la CNIL pour plusieurs manquements au RGPD, avec une amende administrative de 600 000 euros à la clé. Plus que le résultat, le raisonnement et le détail des points soulevés par la CNIL sont intéressants à analyser.

    La CNIL explique avoir été « saisie de plusieurs plaintes à l’encontre de la société EDF, portant sur l’exercice des droits entre août 2019 et décembre 2020 ». La Commission a effectué un contrôle en ligne du site www.edf.fr le 15 février 2021. Un questionnaire était envoyé quelques semaines plus tard (le 25 mars) auquel EDF a répondu le 29 avril. Des échanges complémentaires se sont déroulés jusqu’en septembre.

    En juin de cette année, la rapporteure proposait à la formation restreinte de la CNIL de prononcer « une amende administrative au regard des manquements » et de rendre la décision publique pendant deux ans. Après de nouveaux échanges pendant quelques semaines, le contradictoire était clos mi-septembre.

    Afin de planter le décors, la CNIL rappelle que, « fin décembre 2020, la société comptait dans ses bases de données 25,7 millions de clients pour la fourniture d’électricité, de gaz et de services », soit l’équivalent de 40 % de la population française environ, excusez du peu.
    Surprise (ou pas) : un formulaire non rempli ne vaut pas consentement

    Dans la délibération de la formation restreinte, le premier manquement concerne « l’obligation de recueillir le consentement des personnes concernées pour la mise en œuvre de prospection commerciale par voie électronique ». Problème, suite à des opérations de ce genre, la société n’était « pas en mesure de disposer et d’apporter la preuve d’un consentement valablement exprimé par les prospects dont les données proviennent de courtiers en données avant d’être démarchées » .

    Ce n’est pas tout. Dans le cadre de l’instruction de trois plaintes, EDF n’a pu obtenir du courtier des éléments prouvant que le recueil du consentement avait bien été réalisé : « le courtier en données a produit le formulaire type, et non le formulaire rempli individuellement par chaque prospect ».

    Pour sa défense, EDF expliquait que les prospections exploitant des données collectées auprès de courtiers « sont très ponctuelles et visent un nombre non significatif de prospects ». Elle ajoutait avoir « toujours strictement encadré ses relations contractuelles avec les courtiers en données auxquels elle fait appel et que des échanges fréquents avaient lieu, même s’ils n’étaient pas nécessairement formalisés sous forme d’audits ». Enfin, elle affirmait « que les données déjà collectées dans le cadre de campagnes précédentes ont été supprimées ». Depuis novembre 2021, des audits formalisés sont en place pour éviter que cela ne se reproduise.

    Quoi qu’il en soit, la CNIL « considère dès lors que les mesures mises en place par la société EDF pour s’assurer auprès de ses partenaires que le consentement a été valablement donné par les prospects avant d’être démarchés étaient insuffisantes ». EDF a « méconnu ses obligations résultant des articles L. 34-5 du CPCE et 7, paragraphe 1, du RGPD .

    EDF joue la carte de la refonte en cours

    La deuxième série de reproches concerne le manquement à l’obligation d’information des personnes. Il s’agit des articles 13 et 14 du RGPD qui disposent que des informations doivent être communiquées aux personnes concernées, notamment « les finalités du traitement auquel sont destinées les données à caractère personnel ainsi que la base juridique du traitement ».

    La rapporteure explique que « la base légale n’était pas mentionnée et les durées de conservation des données n’étaient pas développées de manière suffisamment précise ». De plus, « les personnes démarchées par voie postale par la société n’étaient pas informées de la source précise de leurs données à caractère personnel, à savoir l’identité de la société auprès de laquelle EDF les a obtenues ».

    La société concède que sa charte de protection des données personnelles contenait l’ensemble des données au titre de l’article 13 du RGPD, mais reconnait que seules « certaines durées de conservation étaient mentionnées ». EDF ajoute qu’une refonte des durées de conservation était en cours lors du contrôle en ligne : « elle considère qu’il n’était donc pas possible d’indiquer l’ensemble des durées de conservation, puisque celles-ci étaient en cours de revue et de modification ».
    Des informations vagues et imprécises

    L’argument ne fait pas mouche auprès de la formation restreinte : « il n’en demeure pas moins que, au moment de ces constatations, ladite charte précisait " Nous ne conservons vos données que pendant la durée nécessaire à leur traitement selon la finalité qui a été fixée " ». Une information « vague et imprécise », insuffisante pour garantir un traitement équitable et transparent.

    Dans ses courriers, EDF indiquait que les données ont été collectées auprès d’un « organisme spécialisé dans l’enrichissement de données ». C’est l’article 14 du RGPD dont il est question ici. Pour la CNIL, cela manque de précision, car cette information ne permet pas de « garantir un traitement équitable et transparent […] en particulier dans un contexte de reventes successives de données entre de multiples acteurs et dans l’hypothèse où le prospect souhaiterait exercer ses droits auprès du courtier en données dont il ignore l’identité ».

    C’est donc un combo perdant des articles 13 et 14 sur l’obligation d’information des personnes. La CNIL note néanmoins que dans le premier cas, EDF détaille les bases légales et durées de conservation dans sa charte évoquée, tandis que dans le second elle a « modifié les mentions d’information figurant dans les courriers de prospection ».
    Des manquements sur l’obligation de transparence

    On enchaine avec des manquements sur l’exercice des droits des personnes, en lien avec les articles 12, 15 et 21. Premier point abordé : l’obligation de transparence. La CNIL se base sur deux saisines pour affirmer que la société n’a pas respecté ce point du RGPD :

    « S’agissant de la première saisine, la rapporteure a relevé que la société EDF avait contacté le plaignant par téléphone pour lui apporter une réponse, sans lui adresser d’écrit, en violation de l’article 12, paragraphe 1, du RGPD. En outre, la réponse qui lui a été apportée sur l’organisme à l’origine des données était erronée. Enfin, la société a répondu à ses questions, de nouveau par téléphone, plus de neuf mois plus tard.

    S’agissant de la seconde saisine, la rapporteure a relevé que la société avait clôturé la demande du plaignant au lieu de la transmettre au service en charge des demandes d’exercice de droits et n’avait pas répondu […]. Ce n’est que six mois après sa demande initiale – dans le cadre de la procédure de contrôle – qu’une réponse a été apportée au plaignant ».

    Dans le premier cas, EDF plaide « l’erreur humaine commise par le conseiller, lequel n’a pas suivi les procédures internes ». Concernant les retards, elle met en avant un « contexte particulièrement difficile à la fois de la crise sanitaire, qui a conduit à un accroissement du nombre de demandes d’exercice de droit, et de report de la fin de la trêve hivernale au 1er septembre 2020 ». La CNIL en prend note, mais considère tout de même « que le manquement à l’article 12 du RGPD est constitué ».
    Article 15 : CNIL 1 - EDF 1, balle au centre

    On continue avec l’obligation de respecter le droit d’accès, là encore la CNIL se base sur deux saisines. Dans la première, la première réponse apportée au plaignant par téléphone sur la source des données collectées était erronée. La société reconnait que la réponse était « en partie inexacte » à cause d’une erreur sur la source des données.

    Sur la seconde saisine, la société affirmait à une personne « qu’elle n’avait aucune autre donnée la concernant que son prénom et son nom dans ses bases de données ». Problème pour la rapporteure, cette affirmation était inexacte : la société devait au moins avoir son (ancienne) adresse « pour effectuer le rapprochement avec les nom et prénom de la plaignante, puisque la société EDF lui a adressé un courrier au domicile de ses parents ».

    Pour EDF par contre, la réponse du conseiller était correcte « puisque les seules données rattachables à la plaignante étaient ses nom et prénom ». Pour la formation restreinte (qui a suivi la proposition de la rapporteure), « le manquement invoqué n’est pas caractérisé ».

    On termine avec le droit des personnes avec l’article 21. Selon la rapporteure et une saisine, la société n’a pas pris en compte l’opposition d’un plaignant « au traitement des données à caractère personnel de son fils mineur à des fins de prospection commerciale ». Il a en effet reçu un second courrier. EDF reconnait un cafouillage interne : « le conseiller a bien procédé à l’effacement des données comme il l’avait indiqué par téléphone au plaignant, mais n’a pas complètement suivi la procédure interne en ne procédant pas à l’opposition avant d’effacer les données ».

    La procédure est désormais simplifiée. Les faits n’étant pas contestés, ils constituent donc un manquement au titre de l’article 21 du RGPD.
    Quand EDF utilisait encore MD5 en 2022

    Enfin, dernier manquement : l’obligation d’assurer la sécurité des données (article 32). Sur son portail prime énergie, des mots de passe « étaient stockés au moyen de la fonction de hachage MD5 », complètement dépassée aujourd’hui.

    EDF affirme pour sa défense que, « depuis janvier 2018, la fonction de hachage SHA-256 est utilisée », mais que, « jusqu’à juillet 2022, les mots de passe de plus de 25 800 comptes étaient conservés de manière non sécurisée, avec la fonction de hachage MD5 ».

    L’entreprise se défausse sur un prestataire et tente d’éteindre l’incendie (sans convaincre) : « Le hachage MD5 correspond uniquement au niveau de hachage mis en place historiquement par la société […], sous-traitant d’EDF, et pour lequel seuls quelques milliers de comptes étaient encore concernés en avril 2021. La société ajoute que ces mots de passe étaient tout de même stockés avec la robustesse du mécanisme supplémentaire d’aléa (salage), empêchant les attaques par tables précalculées ».

    Peu sensible à ces arguments, la CNIL rappelle que « le recours à la fonction de hachage MD5 par la société n’est plus considéré depuis 2004 comme à l’état de l’art et son utilisation en cryptographie ou en sécurité est proscrite ». EDF n’a que 18 ans de retard.
    Le hachage de 2,4 millions de mots de passe manque de sel

    Sur l’espace client EDF, ce n’est pas franchement mieux. Selon les déclarations initiales de la société, les mots de passe « étaient stockés sous forme hachée et salée au moyen de la fonction SHA-1, pourtant réputée obsolète ». Lors de sa défense, l’entreprise revient sur sa déclaration et explique que l’algorithme « est en réalité SHA-512 complété d’un mécanisme d’ajout d’aléa (salage) depuis le 17 mai 2017, et non SHA-1, contrairement à ce qu’elle avait pu indiquer à la délégation de contrôle ».

    Il reste un problème pour la rapporteure : « si 11 241 166 mots de passe de comptes sont bien hachés et salés, 2 414 254 mots de passe de comptes sont hachés uniquement, sans avoir été salés ». Cette faiblesse a été corrigée et désormais « il n’existe plus à ce jour aucun mot de passe haché en SHA-512 sans mécanisme d’ajout d’aléa (salage) ». EDF ne conteste donc pas le manquement de l’article 32, « mais demande à ne pas être sanctionnée dans la mesure où elle a dorénavant remédié au manquement ».
    La « bonne volonté » ne suffit pas à effacer l’ardoise

    Enfin la formation restreinte détaille sa réflexion sur les mesures correctrices et leur publicité. Sans surprise, EDF met en avant sa « bonne volonté et les efforts dont elle a fait preuve tout au long de la procédure » pour demander à la formation restreinte de « ne pas prononcer de sanction financière ou à tout le moins à réduire très significativement le montant de l’amende proposée par la rapporteure ». Pour la CNIL, « une amende administrative d’un montant de 600 000 euros apparaît justifiée ».

    Pas d’injonction de mettre en conformité néanmoins, car « la société a pris des mesures de mise en conformité s’agissant de l’ensemble des manquements relevés par la rapporteure ». Enfin, EDF demandait « de ne pas la publier ou, à titre subsidiaire, de l’anonymiser immédiatement ou au plus tard dans un délai de huit jours » la décision de sanction.

    La formation restreinte de la CNIL n’est pas sur la même longueur d’onde : « la publicité de la sanction se justifie au regard de la nature et du nombre de manquements commis, ainsi que du nombre de personnes concernées par lesdites violations, en particulier plus de 2 400 000 clients s’agissant du manquement à la sécurité des données ». La décision sera anonymisée après un délai de deux ans. »

    #cnil #edf #rgpd

  • Un magistrat ordonne la censure préalable d’une enquête de Mediapart
    https://www.mediapart.fr/journal/politique/211122/un-magistrat-ordonne-la-censure-prealable-d-une-enquete-de-mediapart

    Vendredi 18 novembre, un huissier est venu au siège de Mediapart nous délivrer un acte judiciaire sans précédent de mémoire de journaliste comme de juriste.

    Il nous ordonne de ne pas publier une enquête d’intérêt public à la demande expresse de la personnalité concernée sans qu’à un seul instant les arguments de Mediapart n’aient été sollicités. Mediapart n’était pas informé de cette procédure et l’ordonnance a été prise par un juge sans que notre journal n’ait pu défendre son travail et ses droits.

  • Qui sont réellement les acteurs du jeu vidéo ?
    https://www.nextinpact.com/article/70387/qui-sont-reellement-acteurs-jeu-video

    Intéressons-nous à une industrie pesant 155 milliards d’euros en 2021 et probablement plus de 200 milliards en 2022. Un eldorado pour beaucoup d’autres territoires que le Japon, les États-Unis, l’Angleterre et la France, pays dans lesquels certains l’imaginent circonscrite. Petite information utile pour l’article et qui fera rager les gamers : en 2021, le jeu mobile représente plus de part de marché que les consoles et PC… réunis.

    #jeux_vidéo #jeu_vidéo #business #finance #nintendo #sony #microsoft #console_switch #console_playstation #console_xbox #mobile #tencent #netease #nexon #apple #google

  • Bercy veut vos relevés bancaires en temps réel
    https://www.nextinpact.com/article/70030/bercy-veut-vos-releves-bancaires-en-temps-reel

    Lors de la refonte du fichier des comptes bancaires (#Ficoba), Bercy a voulu le transformer en fichier des opérations bancaires, qui lui aurait permis d’accéder en temps réel à nos relevés de compte. Un projet finalement bloqué par la Dinum, faute de base légale.

    Dans la grande famille des fichiers, Ficoba est l’un des plus anciens. Ce FIchier des COmptes Bancaires et Assimilés liste, depuis 1971, tous les comptes ouverts en France : comptes courants, comptes d’épargne, comptes-titres… Il contient environ 800 millions de références de comptes dont 300 millions d’actifs. Les informations sont conservées durant toute la durée de vie du compte et pendant 10 ans après sa clôture.

    Ficoba est un mastodonte que doivent nourrir toutes banques et qui est régulièrement consulté par de nombreux organismes : sécurité sociale, fisc, douane, enquêteurs judiciaires, notaires en charge d’une succession, banques, huissiers, TRACFIN. Au total, il y a eu pas moins de 41 millions consultation en 2020. Le fichier est obsolète. Ainsi dans un récent référé, la Cour des comptes regrettait que le Ficoba, à cause de son obsolescence technique, ne soit pas assez utilisé par les organismes sociaux pour lutter contre la fraude à l’identité.

    Le Ficoba ne contient que des informations sur les titulaires et bénéficiaires des comptes : rien sur les opérations effectuées sur les comptes ou sur le solde. Si le fisc ou la police veut en savoir plus, ils doivent passer par des réquisitions spéciales aux banques. C’est apparemment trop limité et trop compliqué pour Bercy.

    #payant