• « Pour briser le silence autour de l’inceste, il faut pouvoir s’imaginer qu’un parent puisse violer »
    https://www.lemonde.fr/societe/article/2021/02/01/pour-briser-le-silence-autour-de-l-inceste-il-faut-pouvoir-s-imaginer-qu-un-


    La psychanalyste Claude Halmos rappelle que « les symptômes sont multiples car l’inceste ravage tout », et appelle les adultes à « accepter d’entendre que l’inceste existe ».

    [...]

    Que se passe-t-il dans la tête d’un enfant lorsqu’il est victime d’inceste ?

    La complexité et l’ampleur de la destruction opérée par l’inceste sont énormes. L’enfant subit une suite d’agressions sexuelles, et donc de traumatismes. C’est-à-dire d’événements dont la violence l’oblige, pour protéger son équilibre psychique, à n’inscrire dans sa conscience, et donc dans sa mémoire, qu’une partie de ce qu’il vit. Le reste, constituant une « mémoire traumatique », restera enfoui, se manifestera par des symptômes et le fragilisera d’autant plus que, chez un enfant, les ravages d’une agression sexuelle sont toujours amplifiés.

    D’une part parce que, faute d’un savoir sur la sexualité, il ne comprend pas – on le voit dans ses dessins – ce qu’il subit : quel orifice de son corps, par exemple, a été touché ou pénétré, et par quoi. Et d’autre part parce que, du fait de la différence entre sa sexualité et celle de son agresseur, l’agression fait exploser le cours normal de son développement sexuel.

    Et les agressions incestueuses ont des conséquences plus graves encore, car elles se produisent dans un lieu – sa famille – où l’enfant se sentait en sécurité ; et du fait de personnes en qui il avait confiance et qui étaient des supports de sa construction psychique. Il se trouve donc confronté, comme dans un cauchemar, au surgissement brutal d’une horreur aussi terrifiante qu’incompréhensible.

    Comment repérer les symptômes des victimes d’inceste avant que ces dernières deviennent adultes ?

    Les symptômes sont multiples, car l’inceste ravage tout. Il bouleverse le rapport de l’enfant à lui-même. Il le fait se sentir « pas comme les autres », sans valeur, et l’enferme dans la honte. Il bouleverse son rapport aux autres, car tout autre peut être désormais celui qui trahit, fait mal, fait peur et, paraissant respectable, trompe néanmoins tout le monde. Et il bouleverse son rapport au monde, devenu, parce qu’il y a fait l’expérience de la torture, de la solitude et de l’impuissance, dangereux.

    L’inceste influe de plus sur sa construction psychique, car en même temps que par le secret imposé il lui confisque la parole, il lui fait découvrir que l’on peut trouver une jouissance dans la transgression et l’abus de pouvoir.

    L’inceste peut donc rendre l’enfant « fou », violent ou au contraire soumis, bloquer son développement affectif et intellectuel. Il peut être à l’origine d’agressions sexuelles sur d’autres enfants ou de masturbations compulsives, par lesquelles il tentera de soulager la surexcitation sexuelle pathologique provoquée chez lui par les agressions. Et il le rendra toujours angoissé et malheureux.

    Ces symptômes peuvent, tous, être repérés, notamment à l’école, et il est important qu’ils le soient. Mais l’aide aux enfants suppose surtout que les adultes acceptent d’entendre – et c’est difficile – que l’inceste existe et fait partie des causes possibles, et non exceptionnelles, de leurs problèmes. Pour briser le silence autour de l’inceste, il faut pouvoir s’imaginer qu’un parent puisse violer.

    Quels sont les symptômes qui perdurent à l’âge adulte ?

    Le traumatisme, chez l’enfant comme chez l’adulte, arrête le cours du temps et fait perdurer ce qu’il a provoqué en eux. L’adulte, victime d’inceste lorsqu’il était enfant – qu’il s’en souvienne ou non –, pourra donc rester la proie de sentiments d’insécurité, de culpabilité, de dévalorisation, et d’angoisses diverses.

    Il pourra souffrir de troubles sexuels, manifestations de la mémoire traumatique qui le hante : peurs, inhibitions ou, au contraire, attrait destructeur pour les « mauvaises rencontres ».

    Quelle posture doivent adopter les adultes pour permettre la libération de la parole des enfants ?

    La « libération de la parole des enfants » est un mythe qui découle d’une méconnaissance de la spécificité du « fonctionnement » des enfants. Les adolescents peuvent, éventuellement – même si c’est très difficile –, parler. Mais les enfants petits ne le peuvent pas.

    Ceux qui sont battus arrivent parfois à le dire, parce qu’ils savent ce que sont les coups. Mais aucun ne peut parler d’actes qu’il est dans l’incapacité d’identifier. Les enfants petits donnent donc à entendre, à travers leurs comportements, leurs paroles et leurs dessins, ce qu’ils subissent, et il faut le décrypter.

    Et ce silence est essentiel, car il constitue la difficulté principale à laquelle se heurte leur protection : celle de la preuve. Des centaines de signalements sont classés tous les jours, au motif que, fondés sur le seul décryptage par un professionnel des manifestations souvent incompréhensibles, comme telles, de l’enfant, ils sont sans preuves.
    Article réservé à nos abonnés Lire aussi Inceste : les équipes pédagogiques et les personnels de santé scolaire en première ligne
    Tant que cette question centrale de la preuve ne sera pas travaillée de façon pluridisciplinaire par des professionnels de l’enfance et du droit, la protection des enfants petits victimes d’inceste restera un vœu pieux.

    Comment prendre en charge les enfants victimes d’inceste ? Quelles sont les spécificités de ce suivi ?

    Leur prise en charge se heurte, elle aussi, à de très nombreux obstacles. Percevoir l’inceste dans une famille suppose, en effet, que le thérapeute travaille non seulement avec l’enfant mais, pour savoir ce qu’il vit, avec ses parents. C’est loin, aujourd’hui, d’être toujours le cas.

    Ensuite, l’enfant a besoin qu’on l’aide à comprendre ce qu’il a vécu, mais aussi ce qui l’a permis : connaître ce qui, dans l’histoire de son parent incestueux, l’a rendu capable de faire ce qu’il a fait permet à l’enfant de ne pas se penser issu d’un monstre et de garder une image positive de lui-même.

    Et ce travail ne peut, en outre, se faire sans l’aide de la justice, car l’enfant a besoin, pour se reconstruire, de retrouver un monde où la loi existe : où son agresseur et ceux – notamment son autre parent – qui l’ont laissé faire puissent être sanctionnés, et lui-même autorisé à vivre dans un milieu protégé.

    Or cela lui est rarement permis, car notre société, s’acharnant à croire que tout parent étant par nature aimant, le milieu familial serait toujours pour les enfants le plus favorable, continue à les sacrifier sur l’autel de cette croyance.

    #inceste

    • Je ne crois pas qu’il y en ait de majeures mais n’hésitez pas à signaler les bêtises que cette psy a pu dire :)
      C’est peut-être un travers mais il m’arrive de trouver plus denses, plus évocatrices, des « catégories conceptuelles » (qui ne devraient pas se passer d’exemple, de cas, de concret) que des « témoignages » (qui emporte toujours des conceptualisations), d’où, malgré tout, le recours à « la » #psychanalyse. C’est moins le cas ici qu’avec une partie des propos de Clotilde Leguil qui était citée là https://seenthis.net/messages/901458#message901473, avant d’être critiqués par plus expert.es que moi.
      Autant te le dire @touti, une part de ce qu’elle disait (la non rencontre, etc) m’avait « parlé » haut et clair, suscitant une empathie « générale » plutôt inédite dans ses modalités, et j’avais pas été assez attentif à d’autres aspects.

    • d’entrée de jeu ou d’article, le ton très affirmatif m’est plutôt pénible. Et si on a pas de mémoire traumatique on fait quoi ? Si on a rien enfoui du tout ? C’est possible ou comme d’habitude les premiers concernés sont les plus inconscient de leur inconscient ? Cette façon de généraliser « l’enfant » et les traumas et les conséquences, pour moi c’est vraiment mettre la tête sous l’eau de plein de monde, et ne pas leur laisser d’autre choix que d’être une victime pour la vie. Je lirais la suite plus tard, mais il faudrait un TW #iatrogénie.

    • un exemple de cette prose iatrogénique balancée sur cuicui comme un sac de patates :

      "Prisonnières de cette mémoire les victimes sont dépossédées de toute de leur vie, à laquelle elles ne comprennent rien et dont elles subissent les conséquences atroces par ignorance des crimes qu’elles ont subis

      (l’article à l’air plus fouillé, c’est pour illustrer ce que je veux dire).

    • dans les [...] il y avait

      Selon Claude Halmos, psychanalyste, spécialiste des enfants et de la maltraitance (...).

      Elle parle essentiellement des « petits enfants » il me semble, ce n’est pas un discours général (sur tous les âges ou toutes les circonstances des incestes). elle distingue les violences et mauvais traitements, plus aisément dicibles car renvoyant à un aspect connu des enfants par ailleurs, et ce qui relève de « la » sexualité (de ces sexualités sans intersection de l’enfant et de l’adulte).
      ce qu’elle dit de « la preuve » pourrait t’intéresser.

    • Ta compagne doit beaucoup souffrir et toi aussi @sombre peut etre que tu pourrai te rapproché d’une asso pour avoir du soutiens et de l’aide pour savoir comment aider ta compagne au mieux. Il y a peut etre des assos de proches de victimes, groupe d’entraide. Je n’en ai pas à te conseiller mais peut etre qu’au sein des assos de victimes on peu te donner des renseignement.

    • @sombre si tu n’es pas loin de lille, tu peux peut-être suggérer l’échappée, qui peut aider à trouver un psy, faire un suivi juridique, offrir une écoute...

      http://www.lechappee-lille.fr

      sinon, murielle salmona, pour les histoires de mémoire traumatique, à paris (important à mon avis, d’aller consulter plutôt que de lire sur internet ses trucs explosants).

      le contenu de face à l’inceste, c’est parfois balancer des trucs comme des sacs à patates, en pleine tronche, donc méfie-te... Peut-être chercher des allié.es pour lui parler... d’autres de tes connaissances, passé.es par le même genre de choses... courage sinon...

    • #Merci @tintin. Hélas, je n’habite pas le Nord et je suis loin de Paris. Je cherche plutôt dans la région (Ouest) des psychothérapeutes compétents sur ce sujet. Je vais effacer mon post (trop personnel) qui n’était en fait qu’un appel à l’aide. J’hésitais à lancer ce signal de détresse depuis un bon moment.

      En tous cas, Merci à vous deux pour vos réponses.

  • #Google. Deuxième chercheuse licenciée dans l’équipe « Éthique et #intelligence_artificielle »

    Deux mois après #Timmit_Gebru, c’est dont la responsable de l’équipe #Éthique_et_intelligence_artificielle que Google licencie. Elle avait dénoncé le licenciement de la chercheuse, mais plus généralement le déni des pratiques discriminatoires de l’entreprise.

    –-> dépêche AFP, enrichie, d’après France 24

    Les libertés académiques et la protection économique dûe aux chercheuses et aux chercheurs s’applique-t’elle dans les grandes firmes qui soutiennent des activités de recherche ? La question se pose avec le second licenciement opéré par Google dans son équipe Éthique et intelligence artificielle.

    #Margaret_Mitchell, qui a fondé l’équipe de recherche en éthique et intelligence artificielle de Google, a été « virée » (« I am fired »), a-t-elle annoncée vendredi sur Twitter, un mois après sa #suspension qui avait déjà valu des critiques au géant des technologies.

    « Après avoir passé en revue le comportement de cette directrice, nous avons confirmé qu’il y a eu de multiples infractions à notre #code_de_conduite, ainsi que de nos règlements sur la sécurité, y compris l’exfiltration de documents confidentiels sensibles et de données privées sur d’autres employés »,

    a déclaré un porte-parole du groupe californien à l’AFP.

    En janvier, Margaret Mitchell s’était vue refuser l’accès à son compte professionnel, quelques semaines après le renvoi d’un membre de son équipe, Timnit Gebru.

    « Ce sont des attaques contre les personnes qui essaient de rendre la technologie de Google plus #éthique »,

    avait réagi un porte-parole du #Alphabet_Workers_Union, le syndicat récemment formé par des employés du groupe.

    Google reproche à la chercheuse en éthique et intelligence artificielle d’avoir téléchargé un grand nombre de documents liés à son ancienne collègue et de les avoir ensuite partagés avec des personnes extérieures.

    Mais la société fait face à des critiques car Margaret Mitchell accuse l’entreprise de l’avoir forcée à se rétracter sur des résultats de recherche.

    Sous son tweet de vendredi – « j’ai été virée » – les messages de soutien abondaient.

    « J’imagine que ça veut dire que l’IA éthique n’a pas sa place dans une société capitaliste »,

    a commenté #Chelsea_Manning, l’ancienne analyste militaire qui a été condamnée pour trahison après avoir transmis des documents classés secret défense à WikiLeaks.

    Le 19 janvier, deux jours avant sa suspension, l’informaticienne avait critiqué publiquement le directeur exécutif du groupe, #Sundar_Pichai, sur le thème du racisme.

    « Disons que vous avez un problème parce que vous n’arrêtez pas de vous aliéner les femmes noires et que vous leur causez des torts importants »,

    avait-elle tweeté au-dessus d’un lien vers un article de CNN intitulé « Le patron de Google rencontre des dirigeants d’universités noires après des accusations de #racisme ».

    « Vous pouvez : A) essayer de réparer vos torts B) essayer de trouver plus de personnes noires pour vous apprécier (l’approche symbolique et superficielle). Bonne chance… ».

    En décembre, plus de 1.400 employés de Google et près de 2000 autres personnes ont signé une lettre appelant l’entreprise à expliquer pourquoi Timnit Gebru avait été renvoyée et pour quelles raisons elle avait dû se rétracter.

    Ils demandaient aussi à Alphabet de s’engager « sans équivoque » en faveur de l’intégrité de la recherche et de la liberté académique.

    https://academia.hypotheses.org/31162
    #AI #IA #licenciement

  • #Université : une entreprise adepte de l’#optimisation_fiscale décroche le #marché des #tests_d’anglais

    Le gouvernement vient de confier l’organisation de #tests d’#anglais à l’université à une entreprise à la légitimité contestée, immatriculée à #Chypre et adepte de l’optimisation fiscale, pour plus de 8 millions d’euros par an. Au grand dam du corps enseignant.

    Dans les #facs vidées par le Covid-19 et qui se sentent abandonnées par l’État, l’attribution d’un #marché_public, fin décembre, a fait l’effet d’une petite bombe chez les enseignants en langue. L’objet de ce marché estimé à plus de 8 millions d’euros par an : l’organisation de tests et #certifications en anglais pour des centaines de milliers d’étudiants en licence, BTS ou DUT.

    Si quatre entreprises s’affrontaient au départ, le duel final a opposé #ETS_Global, une société qui fait référence (à l’origine du célèbre test #Toefl), à #PeopleCert, une entreprise fondée par un homme d’affaires grec et inconnue de la quasi-totalité des linguistes en France.

    Si ETS Global était devant, PeopleCert a cassé ses tarifs de 34,72 % pendant la phase de négociation avec le ministère de l’#enseignement_supérieur, d’après nos informations, pour emporter finalement le contrat.

    « La première chose que j’ai faite quand j’ai entendu ce nom, c’est d’aller voir leur site, qui comporte des fautes d’orthographe que je reprocherais à mes étudiants ! », raille Alexandra Sippel, maîtresse de conférences en cultures anglo-saxonnes à l’université Toulouse-Jean-Jaurès.

    Le choix de l’État est d’autant plus étonnant que PeopleCert pratique l’optimisation fiscale agressive, selon des documents consultés par Mediapart.

    #PeopleCert_International_Limited, l’entité qui a signé avec le ministère, est la société de tête d’un groupe qui en compte une dizaine (à Athènes, Londres, Istanbul ou Dubaï). Elle est immatriculée à Chypre, #paradis_fiscal européen très prisé, notamment des oligarques russes.

    C’était, lors de sa création, une société « boîte aux lettres » basée à l’adresse d’un cabinet de domiciliation chypriote. Elle contrôle deux sociétés britanniques, mais qui ne salarient que 8 personnes.

    En réalité, l’essentiel du travail est effectué par les sociétés grecques du groupe, dont la principale, #PeopleCert_Global_Services, employait 210 personnes en 2017 – en Grèce, le salaire minimum est presque deux fois moindre qu’en France.

    Étonnamment, PeopleCert Global Services réalisait seulement 412’000 euros de résultat pour 9,2 millions de chiffre d’affaires en 2018, tandis que la coquille chypriote #PeopleCert_International engrangeait 3,4 millions d’euros de profits.

    Il faut dire que les statuts de l’entité grecque autorisent deux des directeurs (dont le fils du fondateur) à effectuer « le transfert de n’importe quelle somme d’argent illimitée » vers les autres sociétés du groupe. En clair, le montage semble conçu pour transférer artificiellement les profits vers ce paradis fiscal.

    Entre 2015 et 2019, PeopleCert International a accumulé plus de 15 millions d’euros de bénéfices à Chypre, où le taux habituel de l’impôt sur les sociétés n’est que de 12,5 %, soit trois fois moins qu’en France.

    PeopleCert répond qu’aujourd’hui « plus de dix personnes sont employées dans les bureaux à Chypre, un État membre de l’UE ». « PeopleCert respecte la législation de chaque pays où il est implanté, en particulier la législation comptable, et y paie les impôts et taxes correspondants », indique #Frédéric_Borne, responsable du développement commercial de l’entreprise pour l’ouest de l’Europe.

    De son côté, le ministère de l’enseignement supérieur déclare à Mediapart que, Chypre étant membre de l’Union européenne, « l’implantation géographique du titulaire [du marché – ndlr] et de ses salariés n’a pas été prise en compte dans l’analyse des offres », car cela aurait été contraire au droit. Sur l’optimisation fiscale ? Aucun commentaire.

    Le fondateur grec du groupe, #Anastasios_Byron_Nikolaides, soigne aussi sa fiscalité personnelle. Entre 2011 et 2017, il contrôlait 100 % de PeopleCert International via des sociétés basées au #Liberia, remplacées en 2017 par une coquille offshore à Chypre, #PeopleCert_Holdings_Europe. Sollicité par Mediapart, il a refusé de répondre.

    Sa stratégie étonne d’autant plus qu’il répète à longueur d’interviews son attachement à la Grèce : ses parents, professeur d’anglais et institutrice, lui auraient inculqué le « philotimo », terme désignant le sens de l’honneur, du devoir, de la communauté.

    En 2018, il se félicitait de ne pas avoir abandonné son pays durement touché par la crise. « PeopleCert a fait ses preuves en maintenant non seulement son siège social en Grèce, mais aussi en y conservant des emplois ; aujourd’hui, plus de 90 % des employés de l’entreprise sont grecs », déclarait-il à Ritsa Masoura, présentée comme journaliste contributrice au Huffington Post Grèce, mais qui confie à Mediapart avoir travaillé deux ans pour PeopleCert.

    Les universitaires français apprécieront cette interprétation personnelle du « philotimo ». Ils sont nombreux, de toute façon, à s’élever contre le principe même de cette « #privatisation » des tests d’anglais. De quoi s’agit-il, exactement ?

    Jusqu’en 2018, chaque étudiant était libre de passer ou non une évaluation pour attester son niveau en langue (en plus de son diplôme) et de l’inscrire sur son CV. Il pouvait opter pour un dispositif public et gratuit (#le_Cles), ou bien pour le fameux #Toeic (organisé sur les campus, mais aux frais des candidats), ultra-populaire dans les écoles d’ingénieurs et les formations professionnalisantes.

    Puis Édouard Philippe, premier ministre, a décidé qu’une certification en langue serait obligatoire pour toute une série de diplômes (licence, BTS, DUT…) et a jugé indispensable de contracter avec un prestataire privé, au motif que le Cles manquerait de reconnaissance internationale.

    Depuis, la communauté universitaire est vent debout, dénonçant ici « une gabegie annoncée », là « une démonétisation des enseignements et diplômes accrédités par l’État », ou encore une « atteinte au plurilinguisme ». En septembre dernier, quinze associations de professeurs de langue ont lancé un #recours devant le #Conseil_d’État contre les textes rendant ces certifications obligatoires.

    Fin janvier, les mêmes ont attaqué l’attribution du marché à PeopleCert. « La question de la légitimité de cette entreprise se pose, de même que la question de la pertinence des critères d’attribution du marché et des modalités de sélection de l’entreprise retenue », écrivent-elles dans un communiqué.

    « Conclu sans montant maximum », le marché est reconductible tacitement chaque année jusqu’en 2024. Or, s’il s’agit de tester 22 000 étudiants en 2021, le volume doit gonfler à 281 000 étudiants « minimum » sur l’année universitaire 2023-2024. D’après les estimations de deux maîtresses de conférences, le coût pour l’État pourrait alors dépasser 32 millions d’euros par an. « [C’est] la moitié de l’enveloppe supplémentaire dévolue en 2020 à l’amélioration des conditions de vie étudiante », pointent-elles.

    Compte tenu de l’arrivée récente de PeopleCert dans l’univers des langues, sa victoire n’a fait qu’alimenter la controverse.

    Si la firme affirme avoir fait passer 7 millions d’examens dans 189 pays, elle ne précise pas la part de tests de langue dans ce total. Or, PeopleCert s’est construit en donnant des formations aux entreprises, aux particuliers ou aux ministères en cybersécurité, marketing digital ou management. Et s’il s’est ensuite fait un nom dans les certifications, c’est surtout en informatique et management.

    Plutôt que de développer son offre, PeopleCert a fondé son #business sur le rachat de certifications développées par d’autres. Depuis 2018, il distribue #Itil, une certification en gestion des services informatiques développée par un ancien organisme public anglais. En septembre, PeopleCert a acquis l’association américaine #IASSC et sa certification #Lean_Six_Sigma, populaire pour améliorer les performances des entreprises, récupérant ainsi de prestigieux clients comme Amazon, BMW, Cisco ou l’armée américaine.

    L’entreprise a adopté la même stratégie pour se diversifier dans les langues, avec sa marque #LanguageCert. Alors qu’il peinait jusqu’en 2015 à être reconnu dans le milieu universitaire, PeopleCert a ainsi acquis « toute la #propriété_intellectuelle et le matériel d’évaluation connexe pour les qualifications d’anglais de #City_&_Guilds, l’un des organismes de récompense les plus anciens et les plus prestigieux du Royaume-Uni », comme il le précise dans un dossier de présentation envoyé au corps enseignant français, le 1er février.

    Pour asseoir sa légitimité, PeopleCert s’est aussi payé un grand nom du secteur : #Michael_Milanovic, ancien PDG de #Cambridge_Assessment, qui baigne dans le milieu depuis plus de quarante ans.

    « Ils veulent se crédibiliser, mais leurs certifications en anglais sont des coquilles vides, confie Brice*, sous le couvert de l’anonymat, figure du secteur qui a côtoyé de près PeopleCert. On y voit bien leur philosophie : une plateforme qui délivre des examens créés par d’autres, mais pas un organisme de recherche et développement. Où sont les employés qui développent les items des tests de langues, où sont les psychomotriciens et statisticiens qui valident que la notation évalue bien ce qu’elle est censée évaluer ? »

    Cambridge Assessment et le leader du marché, #ETS_Global, emploient des dizaines de chercheurs pour développer et améliorer en permanence leurs systèmes de certification. Un coût que s’épargne PeopleCert avec sa stratégie de rachat.

    Malgré tout, le bilan de LanguageCert reste maigre, avec seulement une poignée de contrats signés ces dernières années : un au Royaume-Uni avec l’agence des visas et de l’immigration, et trois en Espagne, avec la région de Madrid, l’Andalousie et l’#université_Carlos-III.

    Et en #France ? L’entreprise a fait passer « 15’000 certifications pour l’année 2020, majoritairement par l’intermédiaire de ses 90 organismes de formation agréés sur 170 lieux d’examen », expose PeopleCert. Sans préciser s’il s’agit de tests d’anglais.

    Pour tenir le rythme, la société va devoir changer de braquet, puisque le marché signé avec le ministère prévoit la délivrance de 636’000 tests minimum sur quatre ans, soit un rythme annuel dix fois plus élevé que le total des tests réalisés en 2020 par la société en France.

    Le vice-président de la Société des anglicistes de l’enseignement supérieur, Cédric Sarré, s’interroge : « Ont-ils des examinateurs accrédités en France ? Des centres d’accréditation ? Leurs certifications sont-elles déjà utilisées par d’autres universités ? À ce stade, nous n’avons pas d’informations. »

    Responsable commercial de l’entreprise pour l’Europe de l’Ouest, Frédéric Borne répond que les étudiants auront le choix entre un test papier ou par ordinateur et que la surveillance des examens se fera au sein des universités, avec un chef surveillant dans chaque établissement pour vérifier le bon déroulé des tests.

    « Tous les services réalisés en France seront payés en France à des Français déployés sur le terrain », ajoute-t-il. Sans préciser si les corrections se feront en Grèce, pays où se trouve la grande majorité des salariés de PeopleCert.

    https://www.mediapart.fr/journal/france/150221/universite-une-entreprise-adepte-de-l-optimisation-fiscale-decroche-le-mar

  • How the Pandemic Turned Refugees Into ‘Guinea Pigs’ for Surveillance Tech

    An interview with Dr. Petra Molnar, who spent 2020 investigating the use of drones, facial recognition, and lidar on refugees

    The coronavirus pandemic unleashed a new era in surveillance technology, and arguably no group has felt this more acutely than refugees. Even before the pandemic, refugees were subjected to contact tracing, drone and LIDAR tracking, and facial recognition en masse. Since the pandemic, it’s only gotten worse. For a microcosm of how bad the pandemic has been for refugees — both in terms of civil liberties and suffering under the virus — look no further than Greece.

    Greek refugee camps are among the largest in Europe, and they are overpopulated, with scarce access to water, food, and basic necessities, and under constant surveillance. Researchers say that many of the surveillance techniques and technologies — especially experimental, rudimentary, and low-cost ones — used to corral refugees around the world were often tested in these camps first.

    “Certain communities already marginalized, disenfranchised are being used as guinea pigs, but the concern is that all of these technologies will be rolled out against the broader population and normalized,” says Petra Molnar, Associate Director of the Refugee Law Lab, York University.

    Molnar traveled to the Greek refugee camps on Lesbos in 2020 as part of a fact-finding project with the advocacy group European Digital Rights (EDRi). She arrived right after the Moria camp — the largest in Europe at the time — burned down and forced the relocation of thousands of refugees. Since her visit, she has been concerned about the rise of authoritarian technology and how it might be used against the powerless.

    With the pandemic still raging and states more desperate than ever to contain it, it seemed a good time to discuss the uses and implications of surveillance in the refugee camps. Molnar, who is still in Greece and plans to continue visiting the camps once the nation’s second lockdown lifts, spoke to OneZero about the kinds of surveillance technology she saw deployed there, and what the future holds — particularly with the European Border and Coast Guard Agency, Molnar says, adding “that they’ve been using Greece as a testing ground for all sorts of aerial surveillance technology.”

    This interview has been edited and condensed for clarity.

    OneZero: What kinds of surveillance practices and technologies did you see in the camps?

    Petra Molnar: I went to Lesbos in September, right after the Moria camp burned down and thousands of people were displaced and sent to a new camp. We were essentially witnessing the birth of the Kara Tepes camp, a new containment center, and talked to the people about surveillance, and also how this particular tragedy was being used as a new excuse to bring more technology, more surveillance. The [Greek] government is… basically weaponizing Covid to use it as an excuse to lock the camps down and make it impossible to do any research.

    When you are in Lesbos, it is very clear that it is a testing ground, in the sense that the use of tech is quite rudimentary — we are not talking about thermal cameras, iris scans, anything like that, but there’s an increase in the appetite of the Greek government to explore the use of it, particularly when they try to control large groups of people and also large groups coming from the Aegean. It’s very early days for a lot of these technologies, but everything points to the fact that Greece is Europe’s testing ground.

    They are talking about bringing biometric control to the camps, but we know for example that the Hellenic Coast Guard has a drone that they have been using for self-promotion, propaganda, and they’ve now been using it to follow specific people as they are leaving and entering the camp. I’m not sure if the use of drones was restricted to following refugees once they left the camps, but with the lockdown, it was impossible to verify. [OneZero had access to a local source who confirmed that drones are also being used inside the camps to monitor refugees during lockdown.]

    Also, people can come and go to buy things at stores, but they have to sign in and out at the gate, and we don’t know how they are going to use such data and for what purposes.

    Surveillance has been used on refugees long before the pandemic — in what ways have refugees been treated as guinea pigs for the policies and technologies we’re seeing deployed more widely now? And what are some of the worst examples of authoritarian technologies being deployed against refugees in Europe?

    The most egregious examples that we’ve been seeing are that ill-fated pilot projects — A.I. lie detectors and risk scorings which were essentially trying to use facial recognition and facial expressions’ micro-targeting to determine whether a person was more likely than others to lie at the border. Luckily, that technology was debunked and also generated a lot of debate around the ethics and human rights implications of using something like that.

    Technologies such as voice printing have been used in Germany to try to track a person’s country of origin or their ethnicity, facial recognition made its way into the new Migration’s Pact, and Greece is thinking about automating the triage of refugees, so there’s an appetite at the EU level and globally to use this tech. I think 2021 will be very interesting as more resources are being diverted to these types of tech.

    We saw, right when the pandemic started, that migration data used for population modeling became kind of co-opted and used to try and model flows of Covid. And this is very problematic because they are assuming that the mobile population, people on the move, and refugees are more likely to be bringing in Covid and diseases — but the numbers don’t bear out. We are also seeing the gathering of vast amounts of data for all these databases that Europe is using or will be using for a variety of border enforcement and policing in general.

    The concern is that fear’s being weaponized around the pandemic and technologies such as mobile tracking and data collection are being used as ways to control people. It is also broader, it deals with a kind of discourse around migration, on limiting people’s rights to move. Our concern is that it’ll open the door to further, broader rollout of this kind of tech against the general population.

    What are some of the most invasive technologies you’ve seen? And are you worried these authoritarian technologies will continue to expand, and not just in refugee camps?

    In Greece, the most invasive technologies being used now would probably be drones and unpiloted surveillance technologies, because it’s a really easy way to dehumanize that kind of area where people are crossing, coming from Turkey, trying to claim asylum. There’s also the appetite to try facial recognition technology.

    It shows just how dangerous these technologies can be both because they facilitate pushbacks, border enforcement, and throwing people away, and it really plays into this kind of idea of instead of humane responses you’d hope to happen when you see a boat in distress in the Aegean or the Mediterranean, now entities are turning towards drones and the whole kind of surveillance apparatus. It highlights how the humanity in this process has been lost.

    And the normalization of it all. Now it is so normal to use drones — everything is about policing Europe’s shore, Greece being a shield, to normalize the use of invasive surveillance tech. A lot of us are worried with talks of expanding the scope of action, mandate, and powers of Frontex [the European Border and Coast Guard Agency] and its utter lack of accountability — it is crystal clear that entities like Frontex are going to do Europe’s dirty work.

    There’s a particular framing applied when governments and companies talk about migrants and refugees, often linking them to ISIS and using careless terms and phrases to discuss serious issues. Our concern is that this kind of use of technology is going to become more advanced and more efficient.

    What is happening with regard to contact tracing apps — have there been cases where the technology was forced on refugees?

    I’ve heard about the possibility of refugees being tracked through their phones, but I couldn’t confirm. I prefer not to interact with the state through my phone, but that’s a privilege I have, a choice I can make. If you’re living in a refugee camp your options are much more constrained. Often people in the camps feel they are compelled to give access to their phones, to give their phone numbers, etc. And then there are concerns that tracking is being done. It’s really hard to track the tracking; it is not clear what’s being done.

    Aside from contact tracing, there’s the concern with the Wi-Fi connection provided in the camps. There’s often just one connection or one specific place where Wi-Fi works and people need to be connected to their families, spouses, friends, or get access to information through their phones, sometimes their only lifeline. It’s a difficult situation because, on the one hand, people are worried about privacy and surveillance, but on the other, you want to call your family, your spouse, and you can only do that through Wi-Fi and people feel they need to be connected. They have to rely on what’s available, but there’s a concern that because it’s provided by the authorities, no one knows exactly what’s being collected and how they are being watched and surveilled.

    How do we fight this surveillance creep?

    That’s the hard question. I think one of the ways that we can fight some of this is knowledge. Knowing what is happening, sharing resources among different communities, having a broader understanding of the systemic way this is playing out, and using such knowledge generated by the community itself to push for regulation and governance when it comes to these particular uses of technologies.

    We call for a moratorium or abolition of all high-risk technology in and around the border because right now we don’t have a governance mechanism in place or integrated regional or international way to regulate these uses of tech.

    Meanwhile, we have in the EU a General Data Protection Law, a very strong tool to protect data and data sharing, but it doesn’t really touch on surveillance, automation, A.I., so the law is really far behind.

    One of the ways to fight A.I. is to make policymakers understand the real harm that these technologies have. We are talking about ways that discrimination and inequality are reinforced by this kind of tech, and how damaging they are to people.

    We are trying to highlight this systemic approach to see it as an interconnected system in which all of these technologies play a part in this increasingly draconian way that migration management is being done.

    https://onezero.medium.com/how-the-pandemic-turned-refugees-into-guinea-pigs-for-surveillance-t

    #réfugiés #cobaye #surveillance #technologie #pandémie #covid-19 #coroanvirus #LIDAR #drones #reconnaissance_faciale #Grèce #camps_de_réfugiés #Lesbos #Moria #European_Digital_Rights (#EDRi) #surveillance_aérienne #complexe_militaro-industriel #Kara_Tepes #weaponization #biométrie #IA #intelligence_artificielle #détecteurs_de_mensonges #empreinte_vocale #tri #catégorisation #donneés #base_de_données #contrôle #technologies_autoritaires #déshumanisation #normalisation #Frontex #wifi #internet #smartphone #frontières

    ping @isskein @karine4

    ping @etraces

  • Papua tribe moves to block clearing of its ancestral forest for palm oil
    https://news.mongabay.com/2021/01/papua-tribe-moves-to-block-clearing-of-its-ancestral-forest-for-palm-

    Members of the Auyu tribe of Papua, Indonesia, are demanding a halt to the operations of palm oil company PT Indo Asiana Lestari (IAL), which appears to be gearing up to clear their ancestral forests.
    They say that the company failed to obtain the community’s consent for the project, and that it’s not clear whether it even has the requisite permits to begin operations.
    IAL’s concession is part of the Tanah Merah megaproject that is already dogged by allegations that key operating permits have been falsified.
    The Papua region is home to the world’s third-largest contiguous swath of tropical rainforest, after the Amazon and the Congo Basin, but large areas may be cleared for plantations.

    #Papouasie #industrie_palmiste #terres #forêt #déforestation #contestation

  • FAIRE PART

    Le Ministère de la Santé,

    La Direction Générale de la Santé,
    La Direction de la Santé Publique,
    Santé publique France,
    La Direction de la Haute Autorité de Santé,
    Les Directions des Agences Régionales de Santé,
    La Direction de l’Agence Nationale Sanitaire,
    La Direction de l’Alliance Nationale pour les Sciences de la Vie et de la Santé,
    L’Agence Epidémiologie-France,
    Le Centre National de Recherche Scientifique en Virologie Moléculaire,
    L’Agence Nationale de sécurité du médicament et de la Santé,
    Le Conseil Scientifique de la Présidence de la République,
    Le Haut Commissariat de lutte contre les Epidémies,
    Le Haut Conseil de Veille Sanitaire,
    L’Agence Nationale de Sécurité de Logistique Médicale,
    Le Haut Conseil de Santé Publique

    ont le plaisir de vous annoncer la naissance du petit dernier :

    Le Haut conseil d’orientation pour la stratégie vaccinale

  • SPK Komplex - rbb Brandenburg | programm.ARD.de
    https://programm.ard.de/TV/Programm/Sender/?sendung=282053103395183

    Ce film raconte une partie de l’histoire du collectif anti-anti-psychiatrique SPK (Sozialistisches Patientenkollektiv) des années autour de 1970. Ses membres se sont heurtés au pouvoir des anciens nazis toujours au pouvoir dans les institutions allemandes, surtout dans le corps médical et ses organisations. Très vite ces médecins meurtriers et leurs alliés dans les rangs de la soi-disant justice ont réuissi à faire enfermer ses membres les mieux connus dans la prison de
    Stammhein et la clinique carcérale Hohenasperg où ils ont été soumis aux mêmes conditions de torture blanche comme les membres de la RAF parce qu’on les considérait comme des complices des terroristes maoistes.

    Bande d’annonce du film
    https://www.youtube.com/watch?v=umBYCMF9QnA

    En même temps une campagne médiatique a été lancée contre le collectif qui ne se voyait pas comme anti-psychiatrique, et fut alors dépourvu du soutien des psychiatres qui pensaient agir pour une libération des patients tels Franco Basaglia et David Cooper.

    Le résultat de cette campagne et de la haine toujours extrême qu’expriment les ennemis du collectif sont la disparition complète de ses idées des discussions publiques et la vie cachée de prèsque tous ces anciens membres. Ce film a le mérite d’avoir porté à la connaissance du public une partie des faits. La réaction des auteurs de l’article Wikipdia (DE) sur le SPK consiste dans un renouvellement des accusations et dénonciations connus des années 1970 - on qualifie le film comme sectaire et essaye de faire comprendre qu’au fond le SPK aurait servi de tereau pouur le terrorisme de la RAF.

    Cette dernière accusation est démentie par le film. Bien au contraire les anciens membres du SPK se sont fait reprocher par leurs camarandes de la RAF de ne pas avoir renoncé aux idées propres au SPK.

    Je pense que ce film ne sera pas projeté une deuxième fois à la télévision publique allemande.

    07.06.2020 23:50 Uhr SPK Komplex Film von Gerd Kroske | rbb Fernsehen

    Anfang 1970, vor 50 Jahren, gründete der Arzt Wolfgang Huber in Heidelberg mit Patienten das „Sozialistische Patientenkollektiv“. Die antipsychiatrisch ausgerichtete Gruppe kritisierte die Behandlung von psychisch Kranken als „Verwahr-Psychiatrie“ - und verknüpfte neue Therapiemethoden mit politischen Forderungen. Bald radikalisierte sich das SPK, Gerüchte über Verbindungen zur RAF wurden laut.

    Hubers Experiment führte zu heftigen Auseinandersetzungen mit der Universität Heidelberg und der baden-württembergischen Landesregierung. Im Zuspitzen des Konflikts radikalisierte sich das SPK. Wolfgang Huber, seine Frau und weitere Mitstreiter wurden schließlich verhaftet und vor Gericht gestellt.

    Die SPK-Prozesse nahmen in der Härte, mit der sie von beiden Seiten geführt wurden - von Versuchen, Rechtsanwälte auszuschließen, bis zur Totalverweigerung der Angeklagten - die späteren Stammheim-Prozesse gegen RAF-Mitglieder vorweg. Am Ende wurde das SPK zur kriminellen Vereinigung erklärt; Huber und seine Frau wurden zu langen Haftstrafen verurteilt und verloren ihre Approbationen.

    Seither haftet dem SPK der fragwürdige Ruf an, die RAF unterstützt zu haben und letztendlich in deren Terror aufgegangen zu sein. Dieser Ruf überlagert, worum es Huber und dem SPK eigentlich ging: um die Rechte von Patienten und um Therapien zur Selbstermächtigung.

    In „SPK KOMPLEX“ erzählt Dokumentarfilmregisseur Gerd Kroske über Interviews mit Hubers Weggefährten, mit Ermittlern, Richtern und Journalisten sowie über eine Fülle von unveröffentlichten Aufnahmen und Archivmaterial aus dem „Deutschen Vorherbst“ die weitgehend unbekannte Geschichte des SPK und ihrer Folgen bis heute. Eine Geschichte vom Irresein und Irrewerden, von öffentlicher Wahrnehmung und den Mechanismen von Gewalt.

    Sonntag, 07.06.20
    23:50 - 01:40 Uhr
    110 Min.
    VPS 23:30
    Geänderte Sendezeit!
    rbb Fernsehen

    Das Sozialistische Patientenkollektiv Heidelberg - Interview mit Buchautor Christian Pross
    https://www.youtube.com/watch?v=m9_qby8kqVE

    #iatrocratie #histoire #Allemagen #nazis #médecine #psychiatrie #capitalisme #résistance

  • Éducation. #Samuel_Paty : le #rapport qui accuse la victime

    L’#enquête demandée par Jean-Michel Blanquer à l’inspection de l’Éducation nationale ne répond pas aux questions posées. Elle apporte un récit minutieux, mais biaisé, des faits. Le seul à avoir commis des #erreurs serait… Samuel Paty.

    « La #reconstitution du déroulement des #faits tend à montrer que, tant au niveau de l’établissement qu’aux niveaux départemental et académique, les dispositions ont été prises avec réactivité pour gérer le trouble initialement suscité par le cours sur la #liberté_d’expression de Samuel Paty. »

    La phrase figure en toutes lettres dans le rapport de l’#IGESR (Inspection générale de l’éducation, du sport et de la recherche) sur les événements ayant abouti à l’#assassinat, le 16 novembre, du professeur d’histoire-géographie, rendu public le 3 décembre. Comme on ne peut pas soupçonner a priori les inspecteurs du ministère de l’Éducation nationale d’un défaut de maîtrise de la langue, il faut prendre soin d’en bien saisir le sens.

    Dédouaner l’institution

    Ce rapport affirme donc qu’il s’agissait, non de protéger un enseignant contre une cabale venue de l’extérieur et qui a abouti à son meurtre, mais de « gérer un #trouble ». Et qu’est-ce qui a « suscité » ce trouble, selon les auteurs ? Non pas les agissements d’un père d’élève qui a publié des vidéos dénonçant le comportement du professeur et appelant à se rassembler devant l’établissement, ni ce que cet appel a entraîné, mais bien… « le #cours sur la liberté d’expression de Samuel Paty. »

    Le texte a beau nier, par ailleurs, que le professeur ait été à aucun moment mis en cause, notamment par l’inspecteur « référent laïcité » qui l’a rencontré le 9 octobre : la formulation choisie trahit l’intention véritable de ce travail. Il s’agit non de faire la lumière sur les #responsabilités et les éventuelles #erreurs des uns et des autres dans cette affaire, mais avant tout de dédouaner l’institution de toute responsabilité éventuelle. Comme l’affirmait Jean-Michel Blanquer, le 21 octobre devant le Sénat : « La logique du “#pas_de_vague” n’est plus la logique de l’#Éducation_nationale. » Vraiment ?

    Fragiliser, plutôt que soutenir

    Le rapport reconstitue de manière assez complète et jour par jour le déroulé des faits, depuis le 5 octobre et ce fameux cours d’#EMC (#éducation_morale_et_civique), jusqu’au terrible soir du 16 octobre. Il en ressort que dès le départ, l’affaire a été prise au sérieux par la hiérarchie directe de l’enseignant (et par la plupart de ses collègues) comme par les autorités académiques, ainsi que par les services du ministère de l’Intérieur – #Renseignement_territoriaux et commissariat de Conflans-Sainte-Honorine. Ainsi lundi 12 octobre – donc dès le lendemain de la publication de la vidéo du père d’élève incriminant Samuel Paty – la conseillère sécurité du #rectorat de Versailles signale les faits au Renseignement territorial, qui alerte le #commissariat de #Conflans, lequel met en place rapidement des patrouilles de police devant le collège…

    Un point particulier sur lequel le rapport ne convainc pas, c’est quand il évoque les « #malentendus » auxquels a pu donner lieu l’action « d’accompagnement du professeur et de l’équipe pédagogique » par le #référent_laïcité. Dans une formulation alambiquée, il explique que ce n’est pas son action, mais son statut d’#IA-PR (Inspecteur d’académie-inspecteur pédagogique régional) qui « a pu le cas échéant donner lieu à des malentendus sur le sens et la portée de sa démarche ». En clair : Samuel Paty a cru qu’on venait évaluer et juger son action, et non l’aider à faire face aux attaques dont il était l’objet. Rappelons à ce sujet que l’hebdomadaire Le Point a publié le 20 novembre un courriel envoyé par cet inspecteur, où il indiquait que Samuel Paty ne maîtrisait pas « les règles de la #laïcité ». Le rapport lui-même ne cache d’ailleurs pas que l’intervention de cet inspecteur a eu surtout pour effet de conduire Samuel Paty à reconnaître « la #maladresse qu’il avait pu commettre », en invitant les élèves qui ne souhaitaient pas voir les caricatures à sortir de son cours. Le genre de formulation qui, en effet, est largement de nature à créer un « malentendu »… et à fragiliser, plutôt que soutenir, Samuel Paty.

    Un aveu d’#impuissance

    Résultat de tous ces biais, le rapport aboutit à des #préconisations bien faibles – voire carrément à côté de la plaque – et qui, clairement, ne paraissent pas à la hauteur de l’enjeu : rassurer les enseignants en garantissant que de tels faits ne pourraient se reproduire. Améliorer la #communication – qui en l’occurrence à plutôt bien fonctionné ! – entre services de l’Éducation nationale et services de #police, mettre en place une « #cellule_opérationnelle_de_veille_et_de_suivi » quand une #menace est identifiée, « renforcer la #sécurisation_matérielle des établissements » (rappel : Samuel Paty a été assassiné à l’extérieur…) ou encore mettre en place des « cellules de veille des #réseaux_sociaux au sein des services académiques »… Tout cela sonne plutôt comme un aveu d’impuissance, si ce n’est d’#indifférence. Et montre surtout que seule une véritable #enquête_judiciaire pourra faire la lumière sur ce qui s’est passé à #Conflans-Sainte-Honorine entre le 5 et le 16 octobre. En attendant cet hypothétique débouché, on ne pourra que reprendre et partager la conclusion pleine d’amertume de François Jarraud, fin connaisseur de l’Éducation nationale, sur son site du Café pédagogique : « Tout a été parfait. Tellement parfait que le 16 octobre Samuel Paty était seul face à son assassin. »

    https://www.humanite.fr/education-samuel-paty-le-rapport-qui-accuse-la-victime-697181

    • Carrément !
      J’ai des mails qui disparaissent dans des trous intergalactiques de l’internet ! Il suffit que j’inscrive un nom de domaine précis dans le corps du texte, même pas en destinataire ou envoyeur donc. Domaine qui n’est rien de plus qu’une librairie indépendante en ligne, que j’envoie ce mail avec le smtp de free et hop blocage total, impossible de franchir, mon mail est déclaré en spam. Je ne sais pas depuis combien de temps, qui quoi comment, les mails n’arrivent même pas à la boite mail pour y être reconsidérés, ils sont éliminés en cours de route, pof, disparus sans laisser de traces.
      Après avoir insisté de nombreuses fois hier auprès de free qui ne comprenait pas ce que j’écrivais, même en suivant leur protocole d’envoi d’un mail que je ne peux pas envoyer (oui, c’est marrant ça) (ça a été assez rapide en fait, mais depuis quand ça plantait, mystère) je confirme que je reçois aujourd’hui les mails provenant de la dite librairie. Preuve qu’il y a eu levée d’un blocage. L’enfer.

      Et donc ce ne sont plus les spams qui bousillent internet mais les algorithmes aux logiques marchandes à #IA bas du front qui filtre n’importe quoi n’importe comment avec des critères totalement opaques. Je viens de consacrer plusieurs heures à décrypter le pourquoi d’un blocage sans avoir aucune réponse sauf absurde, par soustractions, essais variés et divers j’isole un problème énorme car j’imagine que la solution actuelle n’est que temporaire et un stade supplémentaire de l’anéantissement de l’internet ouvert à tout·es.

      #stupidité_artificielle

  • Données de santé : « La plate-forme “Health Data Hub” pose des questions de sécurité majeures », Marcel Goldberg, Marie Zins, épidémiologistes
    https://www.lemonde.fr/idees/article/2020/10/29/donnees-de-sante-la-plate-forme-health-data-hub-pose-des-questions-de-securi

    Le gouvernement a lancé un très ambitieux projet de « Health Data Hub » (HDH) visant à réunir l’ensemble des données disponibles sur la santé des Français, pour développer l’intelligence artificielle (IA) en santé. En effet, la situation actuelle est largement insatisfaisante en raison de la dispersion en de multiples systèmes d’information gérés sans coordination par de nombreux acteurs : hôpitaux, Sécurité sociale, organismes de recherche, universités, registres et enquêtes épidémiologiques, cohortes… On ne peut que souscrire aux objectifs de partage de données et de développement de l’IA en santé et se féliciter de la volonté politique de fournir des moyens conséquents.
    Mais si l’intention est louable, réunir toutes les données dans une infrastructure informatique unique est extrêmement dangereux et largement inutile. Le fait de confier sa gestion à Microsoft a suscité de nombreux débats, mais on n’a pratiquement pas évoqué les très graves problèmes que pose le dispositif prévu, même s’il était géré sur une infrastructure nationale.

    Exposition aux attaques

    En effet, le HDH entend centraliser toute donnée collectée dans le cadre d’un acte remboursé par l’Assurance-maladie dans les hôpitaux, en médecine de ville, médecine du travail, pharmacies, services de protection maternelle et infantile, dépistage, enquêtes de santé… La centralisation des données concernant les aspects les plus intimes de la vie des 67 millions d’assurés sociaux chez un hébergeur unique pose des questions majeures de sécurité, car il suffit de croiser quelques données simples pour identifier une personne, avec des conséquences potentiellement très lourdes.

    La centralisation des données dans une seule infrastructure informatique peut permettre des mesures de sécurité accrues, mais les rend plus exposées aux attaques venant de l’extérieur comme de l’intérieur, avec des impacts plus grands en cas de rupture de confidentialité. Faire courir un tel danger aux personnes ne peut se justifier que si cela est indispensable. Or ce n’est pas le cas : non seulement un système centralisé est dangereux, mais il est largement inutile pour deux raisons essentielles.

    La première tient à la qualité des différentes bases de données concernées. Construites dans des buts, des circonstances et avec des méthodes qui, pour la plupart, n’ont rien à voir entre elles, leur qualité et leur validité sont extrêmement variables : « big data » n’est pas synonyme de « good data ». Or les algorithmes d’intelligence artificielle ont besoin de données valides. Avant d’utiliser une base de données, un examen minutieux de ses caractéristiques et de sa qualité, impliquant ceux qui l’ont construite, est indispensable, sans quoi son intégration dans le HDH est inutile.

    Aberration scientifique et technique

    La seconde raison est l’hétérogénéité de ces bases de données. Il ne suffit pas de regrouper des données de droite et de gauche pour les « faire parler ». Encore faut-il que les données soient interopérables, c’est-à-dire homogènes sur le plan sémantique. Par exemple, si on s’intéresse à l’insuffisance cardiaque, on peut trouver des données dans diverses sources : dossier de service de cardiologie, diagnostic de généraliste ou de cardiologue en ville, déclaration d’un sujet dans une enquête, réseaux sociaux… Mais, selon la source, ce terme n’a pas la même signification, ni la même validité.

    Il faut connaître le contexte et les méthodes du recueil des données, la population dont elles sont issues, etc., le cas échéant le type d’appareil utilisé car on rencontre, par exemple, des électrocardiogrammes ou des images IRM provenant d’appareils différents. Et dans de nombreux cas, cette harmonisation s’avère impossible. C’est pourquoi les algorithmes d’IA sont le plus souvent développés sur une base de données unique.

    Il arrive cependant que plusieurs bases de données puissent être rassemblées. Il faut alors les harmoniser. Mais ceci n’a de sens que pour des objectifs spécifiques de recherche et ne peut donc être réalisé qu’au cas par cas ; et implique un travail de comparaison et de définition des données, qui ne peut être réalisé que par les responsables des données concernées, qui disposent de l’expertise et de la connaissance approfondie des données, des conditions de leur recueil, des modalités de validation… Imaginer qu’il sera possible de développer des algorithmes d’IA à partir des données extrêmement hétérogènes uniquement parce qu’elles sont stockées dans un système informatique centralisé est donc une aberration scientifique et technique.

    Et même si toutes ces difficultés sont résolues et qu’on dispose de plusieurs bases de données véritablement interopérables, il n’est pas indispensable de les réunir dans la même infrastructure informatique. Il existe des méthodes d’analyse « distribuée » où des données gérées dans des systèmes informatiques différents sont exploitées en commun ; ces méthodes sont largement utilisées dans les cas où, pour des raisons de sécurité ou des raisons légales, les données ne doivent pas être transférées hors de leur propre environnement.

    Développer le HDH en réunissant les données de 67 millions de Français dans une infrastructure informatique unique est donc une erreur fondamentale qui fait inutilement courir de graves dangers. Si les objectifs de partage de données et de développement de l’IA sont pleinement justifiés, plutôt que d’empiler aveuglément des bases de données hétéroclites, le HDH devrait se concentrer sur des activités réellement utiles, comme par exemple une cartographie analytique des bases de données disponibles, leur mise en réseau, la promotion de règles harmonisées de partage de données, etc.

    En gardant à l’esprit que les véritables difficultés se situent à la source même des données de santé, comme la crise sanitaire du Covid-19 l’a cruellement mis en évidence : absence de données provenant des EHPAD, insuffisance du nombre de spécialistes du codage des causes de décès, pour ne citer que les manques les plus voyants.

    #données_de_santé #IA #santé

  • Lawsuit Alleges NFL’s Concussion Settlement Discriminates Against Black Players - WSJ
    https://www.wsj.com/articles/lawsuit-alleges-nfls-concussion-settlement-discriminates-against-black-players-

    (Août 2020)

    Les compensations pour commotion cérébrale des joueurs de football étasunien utilisent l’#intelligence_artificielle de manière telle que ces compensations différent selon la couleur de la peau : les fonctions intellectuelles avant toute commotion sont considérées plus faibles chez les noirs...

    A group of Black former NFL players has filed a federal lawsuit alleging that the National Football League’s much-contested concussion settlement with players blocked some Black claimants from securing payouts by using an evaluation process that assumed they had lower cognitive functioning when healthy than white players.

    #IA #programmation #biais #racisme #sans_vergogne #états-unis

  • L’UE achète des drones à #Airbus pour repérer les bateaux transportant des migrants

    Airbus et deux sociétés d’armement israéliennes ont reçu 100 millions d’euros pour faire voler des drones au-dessus de la #Méditerranée. Le but : identifier les bateaux chargés de migrants qui tentent d’atteindre l’#Europe, selon le Guardian. Un article d’Euractiv Italie.

    Dans le cadre des « services de #surveillance_aérienne_maritime » qu’elle assure, l’#UE a décidé de recourir à des #appareils_téléguidés volant à moyenne altitude à longue endurance, connus du grand public sous le nom de drones. C’est Airbus qui a été mandaté par Bruxelles pour fournir les engins. Le conglomérat européen spécialisé dans l’aéronautique et la défense travaillera avec la société publique #Israel_Aerospace_Industries (#IAI). Un deuxième contrat a été signé avec #Elbit_Systems, une société d’#armement israélienne privée. Les deux contrats s’élèvent à 50 millions d’euros chacun, selon une information du journal britannique The Guardian.

    Les opérations seront menées en #Grèce et/ou en #Italie et/ou à #Malte selon le contrat-cadre signé entre #Frontex et les fournisseurs, dans le cadre des mesures de contrôle des frontières du sud de l’Europe.

    Le #budget de l’agence européenne de garde-frontières et de gardes-côtes (Frontex), est passé de 6 millions d’euros en 2005 à 460 millions d’euros cette année, ce qui reflète l’importance croissante donnée au contrôle des frontières extérieures en raison de l’immigration. Le service de surveillance aérienne comprendra la mise à disposition d’un flux de #données fiable en temps réel et la capacité de partager ces données en temps réel.

    L’IAI affirme que son drone #Heron, employé couramment par les forces armées israéliennes et allemandes, est en mesure de voler pendant plus de 24 heures et peut parcourir jusqu’à 1 000 miles à partir de sa base à des altitudes supérieures à 35 000 pieds.

    Elbit Systems soutient pour sa part que ses drones #Hermes peuvent voler jusqu’à 36 heures à 30 000 pieds. Le mois dernier, Elbit a annoncé que des drones Hermes avaient été testés avec l’Agence maritime et des garde-côtes britannique au large de la côte ouest du Pays de Galles pour des opérations de recherche et de sauvetage.

    Les drones israéliens sont le résultat d’une technologie de surveillance qu’Israël a développée et testée lors d’une série d’attaques sur Gaza, comme le détaille un rapport de Human Rights Watch. Airbus a fait savoir que son modèle n’était pas en mesure de transporter des armes, et qu’il serait peint en blanc avec le label « Frontex ». Les premiers tests seront effectués en Grèce sur l’île de #Crète.

    Dans le cadre du programme Frontex, le drone italien #Falco_Evo de l’entreprise #Leonardo avait déjà été testé pour des activités de surveillance maritime aérienne dans l’espace aérien civil italien et maltais.

    En juin 2919, le drone avait permis de mettre au jour une pratique fréquemment utilisée par les passeurs : le transbordement de dizaines de personnes d’un « vaisseau -mère » vers une embarcation qui est ensuite laissée à la dérive. La Guardia di Finanza, la police dounière italienne, alertée par les images du drone, avait alors intercepté et saisi un bateau de pêche.

    Reste que l’utilisation de ce type de technologie suscite de nombreuses craintes. Les détracteurs les plus acharnés de la surveillance aérienne par des drones affirment que l’obligation légale d’aider un navire en danger et de sauver des naufragés ne s’applique pas à un engin aérien sans pilote, quel qu’il soit.

    https://www.euractiv.fr/section/migrations/news/lue-achete-des-drones-a-airbus-pour-reperer-les-bateaux-transportant-des-mi
    #complexe_militaro-industriel #business #asile #migrations #réfugiés #frontières #drones #contrôles_frontaliers #surveillance_des_frontières #Israël #EU #Union_européenne #UE

    ping @e-traces

  • Le 10 octobre participez au Dialogue citoyen sur l’avenir d’internet ! Faites entendre votre voix sur des sujets comme l’identité #numérique, la sphère publique numérique, l’inclusion ou encore l’intelligence artificielle. https://www.afnic.fr/fr/l-afnic-en-bref/actualites/actualites-generales/12271/show/le-dialogue-citoyen-numerique-mondial-l-edition-france.html #IA #Inclusion

  • How this mother helped her son score 100 on every online test by simply fooling the AI - Latest News | Gadgets Now
    https://timesofindia.indiatimes.com/gadgets-news/how-this-mother-helped-her-son-score-100-on-every-online-test-by-simply-fooling-the-ai/articleshow/77909886.cms

    She observed her son while he completed more practice assignments and then went through the correct answers showcased by the test platform called Edgenuity. She quickly realised, the AI was only relying on certain keywords to award marks. So, no matter whatever you write in the test, as long as the answers exceed a certain word limit and have the desired keywords, the AI will give a high score. So, if the answer that you write matches with the keywords fed in the AI system, you will get a good score.

    In an interview with The Verge, she explained the answer to a question: “What was the advantage of Constantinople’s location for the power of the Byzantine empire,’ She said, “So you go through, okay, what are the possible keywords that are associated with this? Wealth, caravan, ship, India, China, Middle East, he just threw all of those words in.” Basically, no matter what you write in your answer, if the keywords in your answer match the ones fed to the AI system, you will get full marks.

    #IA

  • L’ Intelligence Artificielle Totale - Le Moine Bleu - Traduction d’un extrait de David Bandurski, in China Media Project, 27 juillet 2019
    http://lemoinebleu.blogspot.com/2020/09/l-intelligence-artificielle-totale.html

    « Un néologisme a fait son apparition sur l’Internet chinois, version abrégée de l’expression "gouvernance intelligente" ― en mandarin : zhineng guanzhi ou智能管治, populairement raccourcie en zhizhi (智治) ― que nous pourrions simplement traduire ainsi : la "gouvernance par l’IA" (Intelligence Artificielle). Cette expression englobe nombre des approches nouvelles que nous avons observées en Chine, relatives au contrôle social et politique, utilisant les technologie de surveillance et les données informatiques (le Big Data). À l’origine de ce néologisme, on trouve nul autre que Chen Yixin (陈一新), directeur de la Commission Centrale des Affaires Légales et Politiques du Parti Communiste Chinois, qui supervise au niveau national la bonne application des dispositions législatives. Chen Yixin est un créateur de slogans extrêmement prolifique au service du Parti : on ne lui doit rien de moins, excusez du peu ! que les vocables de la "Nouvelle Ère" introduite par Xi Jinping. En 2018, c’est ainsi qu’il lança les fameuses "Six Emprises", groupe de termes symbolisant l’idée que les autorités devaient désormais se montrer bien plus agressives dans six domaines décisifs, liés au maintien de l’ordre et au respect de la loi. Le 21 mai de cette année 2019, Chen introduisit la notion des "Cinq Gouvernances" ― ou wuzhi (五治) ― comprenant la politique (政治), la force de loi (法治), la gouvernance morale (德治), l’auto-gouvernance (自治) et la gouvernance par l’IA (智治). "Nous devons [expliqua Chen Yixin] conduire des politiques puissantes, assurer les protections via toute la domination et la force de la loi, gouverner les mœurs, [encourager] l’auto-gouvernance et [employer] l’Intelligence Artificielle". 

    Les quatre premières "emprises gouvernementales" de cette liste étaient déjà, à dire vrai, largement familières au public, et guère connues autrement que comme des clichés anciens, des expressions administratives toutes faites : la "force de loi" renvoyant, par exemple, évidemment non à quelque protection légale [dont bénéficieraient éventuellement les citoyens] mais plutôt à l’instrumentalisation pure et simple de la loi pour assurer le contrôle du Parti. "L’auto-gouvernance", elle, ne désignait pas une quelconque forme d’autonomie mais plutôt le renforcement imposé de la discipline politique, du respect absolu de la ligne dans tout comportement. Mais le cinquième de ces concepts ― la fameuse gouvernance par l’Intelligence Artificielle ― représentait, lui, une vraie nouveauté. Cette formulation synthétisait, en réalité, toutes les options innovantes de pouvoirs de contrôle privilégiées par le Parti. Lors d’une session de travail récente, organisée à destination des cadres législatifs et portant sur le thème des politiques locales, Chen Yixin fit à ce sujet la déclaration suivante : "Nous devons placer le processus de gouvernance par l’Intelligence Artificielle à une position encore plus importante, l’élever au rang de moyen de contrôle décisif. Nous devons promouvoir la gouvernance par l’IA en tant que moyen de contrôle social et comme mécanisme opérationnel dès l’échelon municipal, comme moyen de restructurer tous les processus de travail intelligent (sic). Nous devons accélérer la modernisation du contrôle social dès le niveau municipal". Chen Yixin exprimait ainsi la conviction qu’en s’en remettant à la technologie en vigueur, le Parti pourrait de manière effective et forte identifier tous les risques, alerter de tout signe inquiétant au niveau local et, de cette manière, appliquer en temps utile des réponses efficaces, en termes de management du risque. Un tel travail, dit-il, se concentrera sur les "lieux et districts prioritaires" (重点区域部位), ainsi que sur les "secteurs industriels critiques" (重点行业领域). (...) Un tel processus pourrait s’appuyer sur des infrastructures-clé, telles que le Projet Oeil-de-Lynx (雪亮工程), visant à connecter à un réseau national une surveillance vidéo digitale totale. Comme une recherche sur Google Images suffit à s’en convaincre, le terme de "rayons X" renvoie largement en Chine, dans l’imaginaire, à l’idée de violation de la vie privée. Or, Chen Yixing évoque précisément cette gouvernance par l’IA en employant ce genre de métaphores : parlant par exemple des Big Data et de l’IA comme de "microscopes", de "rayons X", de "téléscopes" tout entier dédiés à la sécurité publique, autant d’outils permettant de promouvoir une scientificité nouvelle du maintien de l’ordre et de la stabilité dès le niveau municipal. La référence aux rayons X représente métaphoriquement toute l’extension (à laquelle le Parti prétend) de son futur accès possible au moindre aspect de la vie et des activités des Chinois, rendant celles-ci absolument transparentes, à fin de contrôle intégral. Encore une fois, la moindre recherche sur Google l’atteste, cette image des "rayons X" ne renvoie à rien de moins, du point de vue des Chinois, qu’à leur nudité complète de citoyens en regard de ces technologies appliquées. Tel est donc, en Chine, l’état des choses et de cet objectif à long terme du pouvoir, consistant à atteindre la précision et l’efficience les plus extrêmes dans le maintien de la stabilité globale (un but, d’ailleurs, pas si récent, remontant aux années 1990, incluant la surveillance de la société et la gestion des contestations). Ces "innovations" (un terme, c’est l’occasion de le rappeler, jamais positif en lui-même, ni en lui-même porteur de progrès) se trouvent activement développées par le Parti depuis 2013. Et maintenant, grâce à Chen Yixing ― vieux camarade de Xi Jinping, et qui servait sous ses ordres lorsqu’il était secrétaire de la province de Zhejiang (il devrait vraisemblablement intégrer le Politburo d’ici trois ans), nous en possédons le lexique parfait ». 

     

    Chen Yixing, à droite, trinquant avec l’assassin socialiste de Rémi Fraisse (à droite également), 2013.

    #IA #Chine

  • EU pays for surveillance in Gulf of Tunis

    A new monitoring system for Tunisian coasts should counter irregular migration across the Mediterranean. The German Ministry of the Interior is also active in the country. A similar project in Libya has now been completed. Human rights organisations see it as an aid to „#pull_backs“ contrary to international law.

    In order to control and prevent migration, the European Union is supporting North African states in border surveillance. The central Mediterranean Sea off Malta and Italy, through which asylum seekers from Libya and Tunisia want to reach Europe, plays a special role. The EU conducts various operations in and off these countries, including the military mission „#Irini“ and the #Frontex mission „#Themis“. It is becoming increasingly rare for shipwrecked refugees to be rescued by EU Member States. Instead, they assist the coast guards in Libya and Tunisia to bring the people back. Human rights groups, rescue organisations and lawyers consider this assistance for „pull backs“ to be in violation of international law.

    With several measures, the EU and its member states want to improve the surveillance off North Africa. Together with Switzerland, the EU Commission has financed a two-part „#Integrated_Border_Management Project“ in Tunisia. It is part of the reform of the security sector which was begun a few years after the fall of former head of state Ben Ali in 2011. With one pillar of this this programme, the EU wants to „prevent criminal networks from operating“ and enable the authorities in the Gulf of Tunis to „save lives at sea“.

    System for military and border police

    The new installation is entitled „#Integrated_System_for_Maritime_Surveillance“ (#ISMariS) and, according to the Commission (https://www.europarl.europa.eu/doceo/document/E-9-2020-000891-ASW_EN.html), is intended to bring together as much information as possible from all authorities involved in maritime and coastal security tasks. These include the Ministry of Defence with the Navy, the Coast Guard under the Ministry of the Interior, the National Guard, and IT management and telecommunications authorities. The money comes from the #EU_Emergency_Trust_Fund_for_Africa, which was established at the Valletta Migration Summit in 2015. „ISMariS“ is implemented by the Italian Ministry of the Interior and follows on from an earlier Italian initiative. The EU is financing similar projects with „#EU4BorderSecurity“ not only in Tunisia but also for other Mediterranean countries.

    An institute based in Vienna is responsible for border control projects in Tunisia. Although this #International_Centre_for_Migration_Policy_Development (ICMPD) was founded in 1993 by Austria and Switzerland, it is not a governmental organisation. The German Foreign Office has also supported projects in Tunisia within the framework of the #ICMPD, including the establishment of border stations and the training of border guards. Last month German finally joined the Institute itself (https://www.andrej-hunko.de/start/download/dokumente/1493-deutscher-beitritt-zum-international-centre-for-migration-policy-development/file). For an annual contribution of 210,000 euro, the Ministry of the Interior not only obtains decision-making privileges for organizing ICMPD projects, but also gives German police authorities the right to evaluate any of the Institute’s analyses for their own purposes.

    It is possible that in the future bilateral German projects for monitoring Tunisian maritime borders will also be carried out via the ICMPD. Last year, the German government supplied the local coast guard with equipment for a boat workshop. In the fourth quarter of 2019 alone (http://dipbt.bundestag.de/doc/btd/19/194/1919467.pdf), the Federal Police carried out 14 trainings for the national guard, border police and coast guard, including instruction in operating „control boats“. Tunisia previously received patrol boats from Italy and the USA (https://migration-control.info/en/wiki/tunisia).

    Vessel tracking and coastal surveillance

    It is unclear which company produced and installed the „ISMariS“ surveillance system for Tunisia on behalf of the ICPMD. Similar facilities for tracking and displaying ship movements (#Vessel_Tracking_System) are marketed by all major European defence companies, including #Airbus, #Leonardo in Italy, #Thales in France and #Indra in Spain. However, Italian project management will probably prefer local companies such as Leonardo. The company and its spin-off #e-GEOS have a broad portfolio of maritime surveillance systems (https://www.leonardocompany.com/en/sea/maritime-domain-awareness/coastal-surveillance-systems).

    It is also possible to integrate satellite reconnaissance, but for this the governments must conclude further contracts with the companies. However, „ISMariS“ will not only be installed as a Vessel Tracking System, it should also enable monitoring of the entire coast. Manufacturers promote such #Coastal_Surveillance_Systems as a technology against irregular migration, piracy, terrorism and smuggling. The government in Tunisia has defined „priority coastal areas“ for this purpose, which will be integrated into the maritime surveillance framework.

    Maritime „#Big_Data

    „ISMariS“ is intended to be compatible with the components already in place at the Tunisian authorities, including coastguard command and control systems, #radar, position transponders and receivers, night vision equipment and thermal and optical sensors. Part of the project is a three-year maintenance contract with the company installing the „ISMariS“.

    Perhaps the most important component of „ISMariS“ for the EU is a communication system, which is also included. It is designed to improve „operational cooperation“ between the Tunisian Coast Guard and Navy with Italy and other EU Member States. The project description mentions Frontex and EUROSUR, the pan-European surveillance system of the EU Border Agency, as possible participants. Frontex already monitors the coastal regions off Libya and Tunisia (https://insitu.copernicus.eu/FactSheets/CSS_Border_Surveillance) using #satellites (https://www.europarl.europa.eu/doceo/document/E-8-2018-003212-ASW_EN.html) and an aerial service (https://digit.site36.net/2020/06/26/frontex-air-service-reconnaissance-for-the-so-called-libyan-coast-guar).

    #EUROSUR is now also being upgraded, Frontex is spending 2.6 million Euro (https://ted.europa.eu/udl?uri=TED:NOTICE:109760-2020:TEXT:EN:HTML) on a new application based on artificial intelligence. It is to process so-called „Big Data“, including not only ship movements but also data from ship and port registers, information on ship owners and shipping companies, a multi-year record of previous routes of large ships and other maritime information from public sources on the Internet. The contract is initially concluded for one year and can be extended up to three times.

    Cooperation with Libya

    To connect North African coastguards to EU systems, the EU Commission had started the „#Seahorse_Mediterranean“ project two years after the fall of North African despots. To combat irregular migration, from 2013 onwards Spain, Italy and Malta have trained a total of 141 members of the Libyan coast guard for sea rescue. In this way, „Seahorse Mediterranean“ has complemented similar training measures that Frontex is conducting for the Coastal Police within the framework of the EU mission #EUBAM_Libya and the military mission #EUNAVFOR_MED for the Coast Guard of the Tripolis government.

    The budget for „#Seahorse_Mediterranean“ is indicated by the Commission as 5.5 million Euro (https://www.europarl.europa.eu/doceo/document/E-9-2020-000892-ASW_EN.html), the project was completed in January 2019. According to the German Foreign Office (http://dipbt.bundestag.de/doc/btd/19/196/1919625.pdf), Libya has signed a partnership declaration for participation in a future common communication platform for surveillance of the Mediterranean. Tunisia, Algeria and Egypt are also to be persuaded to participate. So far, however, the governments have preferred unilateral EU support for equipping and training their coastguards and navies, without having to make commitments in projects like „Seahorse“, such as stopping migration and smuggling on the high seas.

    https://digit.site36.net/2020/06/28/eu-pays-for-surveillance-in-gulf-of-tunis

    #Golfe_de_Tunis #surveillance #Méditerranée #asile #migrations #réfugiés #militarisation_des_frontières #surveillance_des_frontières #Tunisie #externalisation #complexe_militaro-industriel #Algérie #Egypte #Suisse #EU #UE #Union_européenne #Trust_Fund #Emergency_Trust_Fund_for_Africa #Allemagne #Italie #gardes-côtes #gardes-côtes_tunisiens #intelligence_artificielle #IA #données #Espagne #Malte #business

    ping @reka @isskein @_kg_ @rhoumour @karine4

    –—

    Ajouté à cette métaliste sur l’externalisation des frontières :
    https://seenthis.net/messages/731749#message765330

    Et celle-ci sur le lien entre développement et contrôles frontaliers :
    https://seenthis.net/messages/733358#message768701

  • Mörder von Fritz von Weizsäcker zu zwölf Jahren Haft verurteilt | rbb24
    https://www.rbb24.de/panorama/beitrag/2020/07/plaedoyers-urteil-prozess-fritz-weizsaecker-messerattacke.html

    A Berlin un assassin vient d’être condamné à un séjour en hôpital psychiatrique. L’auteur de l’expertise qui justifie l’incarcération psychiatrique n’a pas vu le condamné. L’homme vient d’être déclaré comme fou suivant une procédure de « bon sens ».

    Le cas est exceptionnel car l’assassin revendique une cause politique et humaine pour justifier l’attentat contre un médecin peu connu. Il a poignardé en public un fils de l’ancien président de la RFA Richard von Weizsäcker à qui on reproche d’avoir tiré profit de la production de l’herbicide agent orange utilisé comme arme par les ètats Unis pendant la guerre du Vietnam. Les von Weizsäcker sont connus pour leur grande fidèlité à chaque régime historique allemand sauf pendant l’intermède socialiste à Berlin Est.

    08.07.20- Vor knapp acht Monaten tötete ein 57-Jähriger den Berliner Arzt Fritz von Weizsäcker. Nun ist er vom Berliner Landgericht zu einer Haftstrafe sowie der Unterbringung in einer Psychiatrie verurteilt worden. Dabei wurde eine verminderte Schuldfähigkeit berücksichtigt.

    Der Mann, der den Berliner Chefarzt Fritz von Weizsäcker erstochen hat, ist wegen Mordes verurteilt worden. Das Berliner Landgericht verhängte am Mittwoch eine Freiheitsstrafe von zwölf Jahren und ordnete eine Unterbringung in einem psychiatrischen Krankenhaus an. Bei dem Urteil berücksichtigte die Schwurgerichtskammer eine verminderte Schuldfähigkeit des 57 Jahre alten Angeklagten, sonst wäre bei Mord eine lebenslange Freiheitsstrafe zwingend.

    Der Mann hatte Mitte November den Sohn des früheren Bundespräsidenten Richard von Weizsäcker in der Schloßparkklinik in Berlin-Charlottenburg erstochen. Heimtückisch und aus niedrigen Beweggründen habe der Angeklagte gegen Ende eines Vortrags dem Arzt ein Messer in den Hals gerammt, begründeten die Richter ihre Entscheidung.

    Das Urteil ist noch nicht rechtskräftig. Innerhalb einer Woche kann Revision beantragt werden.

    „Sinnlose Tat eines psychisch nicht unerheblich gestörten Mannes“

    Der 57-jährige Angeklagte aus Andernach in Rheinland-Pfalz wurde außerdem wegen versuchten Mordes an einem Polizisten verurteilt. Der Polizist, der privat bei dem Vortrag war, bei dem Weizsäcker erstochen wurde, wollte den Angreifer stoppen und war von diesem mit mehreren Stichen schwer verletzt worden. In dem Prozess trat der Polizist als Nebenkläger auf.

    Mit dem Urteil entsprach das Gericht weitgehend der Forderung der Anklage. Die Staatsanwältin hatte 14 Jahre Haft und die Unterbringung in der Psychiatrie gefordert. Sie sprach von einer sinnlosen Tat „eines psychisch nicht unerheblich gestörten Mannes“. Tatsächlich sei es ihm darum gegangen, sich selbst durch die Tat „aus dem Sumpf seines Alltags zu ziehen“.

    Als Mordmotiv sah die Staatsanwaltschaft Hass auf die Familie des Getöteten, insbesondere auf den früheren Bundespräsidenten. Er habe als „Kollektivschuld“ Tote im Vietnam-Krieg rächen wollen. Dabei habe er sich auf eine frühere Tätigkeit von Richard von Weizsäcker in den 1960er Jahren für ein Pharmaunternehmen bezogen.

    Gutachter stellt Zwangsstörung fest

    Ein Sachverständiger hatte vergangene Woche im Prozess ausgesagt, dass der Angeklagte unter einer Zwangsstörung und einer kombinierten Persönlichkeitsstörung leide. Diese Störung existiere sehr lange und sei bei dem Angeklagten „sehr eingefressen“. Die Prognose sei „nicht sehr günstig“. Von ihm könnte demnach weiterhin Gefahr ausgehen, so der Gutachter; zudem sträube sich der Angeklagte gegen eine erforderliche Therapie.

    Auch wenn in die Gefühlswelt des Angeklagten nach der Tat Ruhe eingekehrt sei, bleibe die Struktur seiner Erkrankung erhalten, erklärte der Experte. Er gehe davon aus, dass seine Steuerungsfähigkeit bei der Tat erheblich vermindert gewesen sei. Die Schuldfähigkeit hatte in dem Prozess eine zentrale Rolle gespielt.

    „Tat nicht aus Wahn begangen“: Geständnis ohne Reue

    Der Angeklagte hat die Attacke gestanden, dabei aber keine Reue gezeigt. In einer von mehreren Erklärungen zu den Vorwürfen hieß es: „Ich habe meine Tat nie bereut.“ Er habe sich im Recht gefühlt. Zugleich beklagte er sich, er werde „vergleichsweise für Pillepalle an den Pranger gestellt“. Nachdem der forensische Psychiater sein Gutachten vorgetragen hatte, erklärte der Angeklagte: „Ich habe die Tat aus politischer Überzeugung und nicht aus Wahn heraus begangen.“ Weil er nicht an den früheren Bundespräsidenten kam, habe er die Familie ins Visier genommen. Ein Anschlag auf die Familie sei seit 30 Jahren sein „Lebensziel“ gewesen.

    Immer wieder störte der Angeklagte durch Zwischenrufe die Plädoyers - wie er zuvor häufig die Befragung von Zeugen gestört hatte. Er selbst hatte sich in seinem Geständnis als Zwangsneurotiker, Ex-Nazi und verkrachte Existenz beschrieben. Von dem psychiatrischen Gutachter fühlte er sich „falsch interpretiert“. Er sei nicht krank, so der Angeklagte.

    Mehrere Zeugen hatten im Prozess das Bild eines Mannes mit vielen Widersprüchen gezeichnet. Eine Ex-Nachbarin beschrieb den Angeklagten als Einzelgänger und Neurotiker mit Händewasch-Zwang. Er sei entweder laut und aggressiv oder in sich gekehrt gewesen. Frühere Kollegen berichteten, der Angeklagte habe Klinken nur mit einem Taschentuch angefasst oder in seiner Wohnung Lichtschalter mit einem Fuß betätigt. Als Packer in einem Logistikzentrum sei er aber auch hilfsbereit und freundlich gewesen.

    Abendschau, 08.07.2020, 19:30 Uhr

    #Allemagne #Berlin #justice #Vietnam #imprérialisme #crime #folie #iatrocratie #politique #opportunisme #attentat

  • (3) Dr. Ay. Poulain Maubant sur Twitter : "Sur les biais racistes des IA mal entraînées / Twitter
    https://twitter.com/AymericPM/status/1274577781335171072

    Observez.
    Depuis que quelqu’un a remarqué qu’un récent réseau de neurones capable de transformer un visage très pixellisé en un visage réaliste créait systématiquement des visages caucasiens, les expériences se multiplient pour démontrer le biais de cette #IA.

    Il faut lire tout le thread avec plein d’exemples concrets.

    #Intelligence_artificielle #Big_data #Deep_learning #Biais_raciste

  • « Unsere heutige Gesellschaftsform produziert sehr viele Störungen » | Telepolis
    https://www.heise.de/tp/features/Unsere-heutige-Gesellschaftsform-produziert-sehr-viele-Stoerungen-4667052.html

    Der Psychologieprofessor und Bestsellerautor Paul Verhaeghe erklärt, dass Umwelt, psychische und körperliche Gesundheit stärker zusammenhängen, als wir das bisher dachten

    Paul Verhaeghe ist Professor für Psychodiagnostik an der Universität Gent in Belgien. Im ersten Teil des Gespräches ging es darum, wie Psychologie und Psychiatrie auf soziale Anpassung abzielen. Jetzt fahren wir mit dem Nutzen pharmakologischer Behandlungen fort.
    ...
    Gegen Ende würde ich gerne noch darauf hinaus, wie wir Ihrer Meinung nach den bisher besprochenen Herausforderungen der psychischen Gesundheit begegnen sollten. Welche Lösungsansätze schlagen Sie vor?

    Paul Verhaeghe: Wir dürfen sicher nicht die Fehler der Anti-Psychiatrie aus den 1960er Jahren wiederholen. Damals wurden alle Menschen mit Problemen als Opfer einer schlechten Gesellschaft dargestellt. Die Vertreter dieser kritischen Strömungen stellten sich sozusagen zusammen mit den Patienten vor die Klagemauer. So hilft man aber niemandem.

    Ich denke, dass wir zwei Dinge tun müssen: Einerseits dem individuellen Patienten helfen - dann aber bitte anders, als es heute so oft geschieht. Heute wird zu viel auf die Symptome geschaut und zu wenig nach den Ursachen gesucht. Und diese gehen immer über das Individuum hinaus und haben auch mit der Umgebung zu tun. Dann stellt sich die Frage, wie man dem oder der Betroffenen dabei helfen kann, etwas an dieser Umgebung zu verändern. In der Praxis funktioniert das auch. Ich arbeite schon lange nicht mehr nur individuell, sondern kontextuell, aber immer noch aus meiner psychoanalytischen Perspektive heraus.

    https://de.wikipedia.org/wiki/Antipsychiatrie
    https://fr.wikipedia.org/wiki/Antipsychiatrie
    https://en.wikipedia.org/wiki/Anti-psychiatry

    #psychiatrie #Belgique #iatrocratie #antipsychiatrie #histoire

  • Données de santé : l’arbre StopCovid qui cache la forêt Health Data Hub
    https://theconversation.com/donnees-de-sante-larbre-stopcovid-qui-cache-la-foret-health-data-hu

    Health Data Hub, la forêt qui se cache derrière l’arbre

    Dès la remise du rapport Villani sur l’intelligence artificielle (IA) en mars 2018, le président de la République annonce le projet HDHub. En octobre de cette même année, une mission de préfiguration définit les traits d’un système national centralisé regroupant l’ensemble des données de santé publique, un guichet unique à partir duquel l’IA pourrait optimiser des services de reconnaissance artificielle et de prédiction personnalisée.

    Mais l’écosystème de l’IA s’apprête aussi à franchir une nouvelle marche en obtenant l’accès à des données massives provenant des hôpitaux, de la recherche, de la médecine de ville, des objets connectés, etc., et à un marché massif de la santé (prestigieux et à valeur potentielle énorme dans la mesure où il pèse plus de 12 % du PIB). La France, avec son assurance maladie, et le Royaume-Uni, avec son National Health Service (NHS), font ici figure de test, puisque des données cohérentes et fiables y sont maintenues depuis des décennies : Amazon a déjà accès à l’API du NHS pour alimenter son assistant vocal, et Microsoft a déjà signé l’hébergement de toutes les données de santé françaises (stockage, gestion des logs et des annuaires, puissance de calcul et conservation des clés de chiffrement).

    #microsoft #big_data #IA #surveillance #contrôle social #HDHub

  • Accidents médicaux : la Cour des comptes pointe les « défaillances » de l’indemnisation
    https://www.lefigaro.fr/conjoncture/2017/02/09/20002-20170209ARTFIG00006-accidents-medicaux-la-cour-des-comptes-pointe-les

    Pour 2011-2015 sur 49,5 millions d’euros, « près de 30 » n’avaient pas donné lieu à une démarche de recouvrement auprès des assureurs. Ainsi « l’examen des états financiers fait apparaître un défaut d’enregistrement d’un total de créances supérieur à 92 millions d’euros (dont 17,5 millions en instance d’examen pour l’hépatite C, 11,6 en suspens et 29 non identifiés). D’ailleurs, le système d’information de l’Oniam est « onéreux, inadapté et inefficace » et ne permet pas d’informer correctement ses administrations de tutelle sur son activité (dossiers d’indemnisation, état des recouvrements...).

    #médecine
    #erreurs_médicales
    #mortalité
    #2017
    #scandale_sanitaire
    #assurances
    #bigpharma

    • Les erreurs médicales à l’hôpital, cause majeure de mortalité
      https://www.lemonde.fr/medecine/article/2016/05/04/morts-liees-aux-erreurs-medicales-des-donnees-peu-fiables_4913152_1650718.ht

      50 000 décès en France ?

      « Avec 15 millions d’hospitalisations en France en 2013, le nombre de décès liés aux erreurs médicales pourrait ainsi avoisiner les 50 000, en faisant la troisième cause de mortalité du pays après les cancers et les maladies cardio-vasculaires », indiquait Le Lien, association de défense des patients victimes d’accidents médicaux, en 2015, à partir des données de l’Organisation mondiale de la santé. En 2013, un rapport sur la iatrogénie (conséquences néfastes liées aux soins), rédigé par le pharmacologue Bernard Bégaud et par l’épidémiologiste Dominique Costagliola, relevait que « des études de pharmacovigilance permettant d’avancer la fourchette de 10 000 à 30 000 décès attribuables chaque année en France à un accident médicamenteux ». Sans compter ceux dus à d’autres causes médicales ou chirurgicales.

      « Nous demandons depuis des années la publication de données sur la mortalité liée aux erreurs médicales en France », explique-t-on au Lien. « On commence seulement à faire en sorte que les événements indésirables graves liés aux soins soient déclarés », ajoute l’association.

      #2016

  • Appel à l’annulation d’un contrat entre l’#UE et des entreprises israéliennes pour la surveillance des migrants par drones

    Les contrats de l’UE de 59 millions d’euros avec des entreprises militaires israélienne pour s’équiper en drones de guerre afin de surveiller les demandeurs d’asile en mer sont immoraux et d’une légalité douteuse.
    L’achat de #drones_israéliens par l’UE encourage les violations des droits de l’homme en Palestine occupée, tandis que l’utilisation abusive de tout drone pour intercepter les migrants et les demandeurs d’asile entraînerait de graves violations en Méditerranée, a déclaré aujourd’hui Euro-Mediterranean Human Rights Monitor dans un communiqué.
    L’UE devrait immédiatement résilier ces #contrats et s’abstenir d’utiliser des drones contre les demandeurs d’asile, en particulier la pratique consistant à renvoyer ces personnes en #Libye, entravant ainsi leur quête de sécurité.

    L’année dernière, l’Agence européenne des garde-frontières et des garde-côtes basée à Varsovie, #Frontex, et l’Agence européenne de sécurité maritime basée à Lisbonne, #EMSA, ont investi plus de 100 millions d’euros dans trois contrats pour des drones sans pilote. De plus, environ 59 millions d’euros des récents contrats de drones de l’UE auraient été accordés à deux sociétés militaires israéliennes : #Elbit_Systems et #Israel_Aerospace_Industries, #IAI.

    L’un des drones que Frontex a obtenu sous contrat est le #Hermes_900 d’Elbit, qui a été expérimenté sur la population mise en cage dans la #bande_de_Gaza assiégée lors de l’#opération_Bordure_protectrice de 2014. Cela montre l’#investissement de l’UE dans des équipements israéliens dont la valeur a été démontrée par son utilisation dans le cadre de l’oppression du peuple palestinien et de l’occupation de son territoire. Ces achats de drones seront perçus comme soutenant et encourageant une telle utilisation expérimentale de la #technologie_militaire par le régime répressif israélien.

    « Il est scandaleux pour l’UE d’acheter des drones à des fabricants de drones israéliens compte tenu des moyens répressifs et illégaux utilisés pour opprimer les Palestiniens vivant sous occupation depuis plus de cinquante ans », a déclaré le professeur Richard Falk, président du conseil d’administration d’Euromed-Monitor.

    Il est également inacceptable et inhumain pour l’UE d’utiliser des drones, quelle que soit la manière dont ils ont été obtenus pour violer les droits fondamentaux des migrants risquant leur vie en mer pour demander l’asile en Europe.

    Les contrats de drones de l’UE soulèvent une autre préoccupation sérieuse car l’opération Sophia ayant pris fin le 31 mars 2020, la prochaine #opération_Irini a l’intention d’utiliser ces drones militaires pour surveiller et fournir des renseignements sur les déplacements des demandeurs d’asile en #mer_Méditerranée, et cela sans fournir de protocoles de sauvetage aux personnes exposées à des dangers mortels en mer. Surtout si l’on considère qu’en 2019 le #taux_de_mortalité des demandeurs d’asile essayant de traverser la Méditerranée a augmenté de façon spectaculaire, passant de 2% en moyenne à 14%.

    L’opération Sophia utilise des navires pour patrouiller en Méditerranée, conformément au droit international, et pour aider les navires en détresse. Par exemple, la Convention des Nations Unies sur le droit de la mer (CNUDM) stipule que tous les navires sont tenus de signaler une rencontre avec un navire en détresse et, en outre, de proposer une assistance, y compris un sauvetage. Étant donné que les drones ne transportent pas d’équipement de sauvetage et ne sont pas régis par la CNUDM, il est nécessaire de s’appuyer sur les orientations du droit international des droits de l’homme et du droit international coutumier pour guider le comportement des gouvernements.

    Euro-Med Monitor craint que le passage imminent de l’UE à l’utilisation de drones plutôt que de navires en mer Méditerranée soit une tentative de contourner le #droit_international et de ne pas respecter les directives de l’UE visant à sauver la vie des personnes isolées en mer en situation critique. Le déploiement de drones, comme proposé, montre la détermination de l’UE à dissuader les demandeurs d’asile de chercher un abri sûr en Europe en facilitant leur capture en mer par les #gardes-côtes_libyens. Cette pratique reviendrait à aider et à encourager la persécution des demandeurs d’asile dans les fameux camps de détention libyens, où les pratiques de torture, d’esclavage et d’abus sexuels sont très répandues.

    En novembre 2019, l’#Italie a confirmé qu’un drone militaire appartenant à son armée s’était écrasé en Libye alors qu’il était en mission pour freiner les passages maritimes des migrants. Cela soulève de sérieuses questions quant à savoir si des opérations de drones similaires sont menées discrètement sous les auspices de l’UE.

    L’UE devrait décourager les violations des droits de l’homme contre les Palestiniens en s’abstenant d’acheter du matériel militaire israélien utilisé dans les territoires palestiniens occupés. Elle devrait plus généralement s’abstenir d’utiliser des drones militaires contre les demandeurs d’asile civils et, au lieu de cela, respecter ses obligations en vertu du droit international en offrant un refuge sûr aux réfugiés.

    Euro-Med Monitor souligne que même en cas d’utilisation de drones, les opérateurs de drones de l’UE sont tenus, en vertu du droit international, de respecter les #droits_fondamentaux à la vie, à la liberté et à la sécurité de tout bateau de migrants en danger qu’ils rencontrent. Les opérateurs sont tenus de signaler immédiatement tout incident aux autorités compétentes et de prendre toutes les mesures nécessaires pour garantir que les opérations de recherche et de sauvetage soient menées au profit des migrants en danger.

    L’UE devrait en outre imposer des mesures de #transparence et de #responsabilité plus strictes sur les pratiques de Frontex, notamment en créant un comité de contrôle indépendant pour enquêter sur toute violation commise et prévenir de futures transgressions. Enfin, l’UE devrait empêcher l’extradition ou l’expulsion des demandeurs d’asile vers la Libye – où leur vie serait gravement menacée – et mettre fin à la pratique des garde-côtes libyens qui consiste à arrêter et capturer des migrants en mer.

    http://www.france-palestine.org/Appel-a-l-annulation-d-un-contrat-entre-l-UE-et-des-entreprises-is
    #Europe #EU #drones #Israël #surveillance #drones #migrations #asile #réfugiés #Méditerranée #frontières #contrôles_frontaliers #militarisation_des_frontières #complexe_militaro-industriel #business #armée #droits_humains #sauvetage

    ping @etraces @reka @nepthys @isskein @karine4

  • Monitoring being pitched to fight Covid-19 was tested on refugees

    The pandemic has given a boost to controversial data-driven initiatives to track population movements

    In Italy, social media monitoring companies have been scouring Instagram to see who’s breaking the nationwide lockdown. In Israel, the government has made plans to “sift through geolocation data” collected by the Shin Bet intelligence agency and text people who have been in contact with an infected person. And in the UK, the government has asked mobile operators to share phone users’ aggregate location data to “help to predict broadly how the virus might move”.

    These efforts are just the most visible tip of a rapidly evolving industry combining the exploitation of data from the internet and mobile phones and the increasing number of sensors embedded on Earth and in space. Data scientists are intrigued by the new possibilities for behavioural prediction that such data offers. But they are also coming to terms with the complexity of actually using these data sets, and the ethical and practical problems that lurk within them.

    In the wake of the refugee crisis of 2015, tech companies and research consortiums pushed to develop projects using new data sources to predict movements of migrants into Europe. These ranged from broad efforts to extract intelligence from public social media profiles by hand, to more complex automated manipulation of big data sets through image recognition and machine learning. Two recent efforts have just been shut down, however, and others are yet to produce operational results.

    While IT companies and some areas of the humanitarian sector have applauded new possibilities, critics cite human rights concerns, or point to limitations in what such technological solutions can actually achieve.

    In September last year Frontex, the European border security agency, published a tender for “social media analysis services concerning irregular migration trends and forecasts”. The agency was offering the winning bidder up to €400,000 for “improved risk analysis regarding future irregular migratory movements” and support of Frontex’s anti-immigration operations.

    Frontex “wants to embrace” opportunities arising from the rapid growth of social media platforms, a contracting document outlined. The border agency believes that social media interactions drastically change the way people plan their routes, and thus examining would-be migrants’ online behaviour could help it get ahead of the curve, since these interactions typically occur “well before persons reach the external borders of the EU”.

    Frontex asked bidders to develop lists of key words that could be mined from platforms like Twitter, Facebook, Instagram and YouTube. The winning company would produce a monthly report containing “predictive intelligence ... of irregular flows”.

    Early this year, however, Frontex cancelled the opportunity. It followed swiftly on from another shutdown; Frontex’s sister agency, the European Asylum Support Office (EASO), had fallen foul of the European data protection watchdog, the EDPS, for searching social media content from would-be migrants.

    The EASO had been using the data to flag “shifts in asylum and migration routes, smuggling offers and the discourse among social media community users on key issues – flights, human trafficking and asylum systems/processes”. The search covered a broad range of languages, including Arabic, Pashto, Dari, Urdu, Tigrinya, Amharic, Edo, Pidgin English, Russian, Kurmanji Kurdish, Hausa and French.

    Although the EASO’s mission, as its name suggests, is centred around support for the asylum system, its reports were widely circulated, including to organisations that attempt to limit illegal immigration – Europol, Interpol, member states and Frontex itself.

    In shutting down the EASO’s social media monitoring project, the watchdog cited numerous concerns about process, the impact on fundamental rights and the lack of a legal basis for the work.

    “This processing operation concerns a vast number of social media users,” the EDPS pointed out. Because EASO’s reports are read by border security forces, there was a significant risk that data shared by asylum seekers to help others travel safely to Europe could instead be unfairly used against them without their knowledge.

    Social media monitoring “poses high risks to individuals’ rights and freedoms,” the regulator concluded in an assessment it delivered last November. “It involves the use of personal data in a way that goes beyond their initial purpose, their initial context of publication and in ways that individuals could not reasonably anticipate. This may have a chilling effect on people’s ability and willingness to express themselves and form relationships freely.”

    EASO told the Bureau that the ban had “negative consequences” on “the ability of EU member states to adapt the preparedness, and increase the effectiveness, of their asylum systems” and also noted a “potential harmful impact on the safety of migrants and asylum seekers”.

    Frontex said that its social media analysis tender was cancelled after new European border regulations came into force, but added that it was considering modifying the tender in response to these rules.
    Coronavirus

    Drug shortages put worst-hit Covid-19 patients at risk
    European doctors running low on drugs needed to treat Covid-19 patients
    Big Tobacco criticised for ’coronavirus publicity stunt’ after donating ventilators

    The two shutdowns represented a stumbling block for efforts to track population movements via new technologies and sources of data. But the public health crisis precipitated by the Covid-19 virus has brought such efforts abruptly to wider attention. In doing so it has cast a spotlight on a complex knot of issues. What information is personal, and legally protected? How does that protection work? What do concepts like anonymisation, privacy and consent mean in an age of big data?
    The shape of things to come

    International humanitarian organisations have long been interested in whether they can use nontraditional data sources to help plan disaster responses. As they often operate in inaccessible regions with little available or accurate official data about population sizes and movements, they can benefit from using new big data sources to estimate how many people are moving where. In particular, as well as using social media, recent efforts have sought to combine insights from mobile phones – a vital possession for a refugee or disaster survivor – with images generated by “Earth observation” satellites.

    “Mobiles, satellites and social media are the holy trinity of movement prediction,” said Linnet Taylor, professor at the Tilburg Institute for Law, Technology and Society in the Netherlands, who has been studying the privacy implications of such new data sources. “It’s the shape of things to come.”

    As the devastating impact of the Syrian civil war worsened in 2015, Europe saw itself in crisis. Refugee movements dominated the headlines and while some countries, notably Germany, opened up to more arrivals than usual, others shut down. European agencies and tech companies started to team up with a new offering: a migration hotspot predictor.

    Controversially, they were importing a concept drawn from distant catastrophe zones into decision-making on what should happen within the borders of the EU.

    “Here’s the heart of the matter,” said Nathaniel Raymond, a lecturer at the Yale Jackson Institute for Global Affairs who focuses on the security implications of information communication technologies for vulnerable populations. “In ungoverned frontier cases [European data protection law] doesn’t apply. Use of these technologies might be ethically safer there, and in any case it’s the only thing that is available. When you enter governed space, data volume and ease of manipulation go up. Putting this technology to work in the EU is a total inversion.”
    “Mobiles, satellites and social media are the holy trinity of movement prediction”

    Justin Ginnetti, head of data and analysis at the Internal Displacement Monitoring Centre in Switzerland, made a similar point. His organisation monitors movements to help humanitarian groups provide food, shelter and aid to those forced from their homes, but he casts a skeptical eye on governments using the same technology in the context of migration.

    “Many governments – within the EU and elsewhere – are very interested in these technologies, for reasons that are not the same as ours,” he told the Bureau. He called such technologies “a nuclear fly swatter,” adding: “The key question is: What problem are you really trying to solve with it? For many governments, it’s not preparing to ‘better respond to inflow of people’ – it’s raising red flags, to identify those en route and prevent them from arriving.”
    Eye in the sky

    A key player in marketing this concept was the European Space Agency (ESA) – an organisation based in Paris, with a major spaceport in French Guiana. The ESA’s pitch was to combine its space assets with other people’s data. “Could you be leveraging space technology and data for the benefit of life on Earth?” a recent presentation from the organisation on “disruptive smart technologies” asked. “We’ll work together to make your idea commercially viable.”

    By 2016, technologists at the ESA had spotted an opportunity. “Europe is being confronted with the most significant influxes of migrants and refugees in its history,” a presentation for their Advanced Research in Telecommunications Systems Programme stated. “One burning issue is the lack of timely information on migration trends, flows and rates. Big data applications have been recognised as a potentially powerful tool.” It decided to assess how it could harness such data.

    The ESA reached out to various European agencies, including EASO and Frontex, to offer a stake in what it called “big data applications to boost preparedness and response to migration”. The space agency would fund initial feasibility stages, but wanted any operational work to be jointly funded.

    One such feasibility study was carried out by GMV, a privately owned tech group covering banking, defence, health, telecommunications and satellites. GMV announced in a press release in August 2017 that the study would “assess the added value of big data solutions in the migration sector, namely the reduction of safety risks for migrants, the enhancement of border controls, as well as prevention and response to security issues related with unexpected migration movements”. It would do this by integrating “multiple space assets” with other sources including mobile phones and social media.

    When contacted by the Bureau, a spokeswoman from GMV said that, contrary to the press release, “nothing in the feasibility study related to the enhancement of border controls”.

    In the same year, the technology multinational CGI teamed up with the Dutch Statistics Office to explore similar questions. They started by looking at data around asylum flows from Syria and at how satellite images and social media could indicate changes in migration patterns in Niger, a key route into Europe. Following this experiment, they approached EASO in October 2017. CGI’s presentation of the work noted that at the time EASO was looking for a social media analysis tool that could monitor Facebook groups, predict arrivals of migrants at EU borders, and determine the number of “hotspots” and migrant shelters. CGI pitched a combined project, co-funded by the ESA, to start in 2019 and expand to serve more organisations in 2020.
    The proposal was to identify “hotspot activities”, using phone data to group individuals “according to where they spend the night”

    The idea was called Migration Radar 2.0. The ESA wrote that “analysing social media data allows for better understanding of the behaviour and sentiments of crowds at a particular geographic location and a specific moment in time, which can be indicators of possible migration movements in the immediate future”. Combined with continuous monitoring from space, the result would be an “early warning system” that offered potential future movements and routes, “as well as information about the composition of people in terms of origin, age, gender”.

    Internal notes released by EASO to the Bureau show the sheer range of companies trying to get a slice of the action. The agency had considered offers of services not only from the ESA, GMV, the Dutch Statistics Office and CGI, but also from BIP, a consulting firm, the aerospace group Thales Alenia, the geoinformation specialist EGEOS and Vodafone.

    Some of the pitches were better received than others. An EASO analyst who took notes on the various proposals remarked that “most oversell a bit”. They went on: “Some claimed they could trace GSM [ie mobile networks] but then clarified they could do it for Venezuelans only, and maybe one or two countries in Africa.” Financial implications were not always clearly provided. On the other hand, the official noted, the ESA and its consortium would pay 80% of costs and “we can get collaboration on something we plan to do anyway”.

    The features on offer included automatic alerts, a social media timeline, sentiment analysis, “animated bubbles with asylum applications from countries of origin over time”, the detection and monitoring of smuggling sites, hotspot maps, change detection and border monitoring.

    The document notes a group of services available from Vodafone, for example, in the context of a proposed project to monitor asylum centres in Italy. The proposal was to identify “hotspot activities”, using phone data to group individuals either by nationality or “according to where they spend the night”, and also to test if their movements into the country from abroad could be back-tracked. A tentative estimate for the cost of a pilot project, spread over four municipalities, came to €250,000 – of which an unspecified amount was for “regulatory (privacy) issues”.

    Stumbling blocks

    Elsewhere, efforts to harness social media data for similar purposes were proving problematic. A September 2017 UN study tried to establish whether analysing social media posts, specifically on Twitter, “could provide insights into ... altered routes, or the conversations PoC [“persons of concern”] are having with service providers, including smugglers”. The hypothesis was that this could “better inform the orientation of resource allocations, and advocacy efforts” - but the study was unable to conclude either way, after failing to identify enough relevant data on Twitter.

    The ESA pressed ahead, with four feasibility studies concluding in 2018 and 2019. The Migration Radar project produced a dashboard that showcased the use of satellite imagery for automatically detecting changes in temporary settlement, as well as tools to analyse sentiment on social media. The prototype received positive reviews, its backers wrote, encouraging them to keep developing the product.

    CGI was effusive about the predictive power of its technology, which could automatically detect “groups of people, traces of trucks at unexpected places, tent camps, waste heaps and boats” while offering insight into “the sentiments of migrants at certain moments” and “information that is shared about routes and motives for taking certain routes”. Armed with this data, the company argued that it could create a service which could predict the possible outcomes of migration movements before they happened.

    The ESA’s other “big data applications” study had identified a demand among EU agencies and other potential customers for predictive analyses to ensure “preparedness” and alert systems for migration events. A package of services was proposed, using data drawn from social media and satellites.

    Both projects were slated to evolve into a second, operational phase. But this seems to have never become reality. CGI told the Bureau that “since the completion of the [Migration Radar] project, we have not carried out any extra activities in this domain”.

    The ESA told the Bureau that its studies had “confirmed the usefulness” of combining space technology and big data for monitoring migration movements. The agency added that its corporate partners were working on follow-on projects despite “internal delays”.

    EASO itself told the Bureau that it “took a decision not to get involved” in the various proposals it had received.

    Specialists found a “striking absence” of agreed upon core principles when using the new technologies

    But even as these efforts slowed, others have been pursuing similar goals. The European Commission’s Knowledge Centre on Migration and Demography has proposed a “Big Data for Migration Alliance” to address data access, security and ethics concerns. A new partnership between the ESA and GMV – “Bigmig" – aims to support “migration management and prevention” through a combination of satellite observation and machine-learning techniques (the company emphasised to the Bureau that its focus was humanitarian). And a consortium of universities and private sector partners – GMV among them – has just launched a €3 million EU-funded project, named Hummingbird, to improve predictions of migration patterns, including through analysing phone call records, satellite imagery and social media.

    At a conference in Berlin in October 2019, dozens of specialists from academia, government and the humanitarian sector debated the use of these new technologies for “forecasting human mobility in contexts of crises”. Their conclusions raised numerous red flags. They found a “striking absence” of agreed upon core principles. It was hard to balance the potential good with ethical concerns, because the most useful data tended to be more specific, leading to greater risks of misuse and even, in the worst case scenario, weaponisation of the data. Partnerships with corporations introduced transparency complications. Communication of predictive findings to decision makers, and particularly the “miscommunication of the scope and limitations associated with such findings”, was identified as a particular problem.

    The full consequences of relying on artificial intelligence and “employing large scale, automated, and combined analysis of datasets of different sources” to predict movements in a crisis could not be foreseen, the workshop report concluded. “Humanitarian and political actors who base their decisions on such analytics must therefore carefully reflect on the potential risks.”

    A fresh crisis

    Until recently, discussion of such risks remained mostly confined to scientific papers and NGO workshops. The Covid-19 pandemic has brought it crashing into the mainstream.

    Some see critical advantages to using call data records to trace movements and map the spread of the virus. “Using our mobile technology, we have the potential to build models that help to predict broadly how the virus might move,” an O2 spokesperson said in March. But others believe that it is too late for this to be useful. The UK’s chief scientific officer, Patrick Vallance, told a press conference in March that using this type of data “would have been a good idea in January”.

    Like the 2015 refugee crisis, the global emergency offers an opportunity for industry to get ahead of the curve with innovative uses of big data. At a summit in Downing Street on 11 March, Dominic Cummings asked tech firms “what [they] could bring to the table” to help the fight against Covid-19.

    Human rights advocates worry about the longer term effects of such efforts, however. “Right now, we’re seeing states around the world roll out powerful new surveillance measures and strike up hasty partnerships with tech companies,” Anna Bacciarelli, a technology researcher at Amnesty International, told the Bureau. “While states must act to protect people in this pandemic, it is vital that we ensure that invasive surveillance measures do not become normalised and permanent, beyond their emergency status.”

    More creative methods of surveillance and prediction are not necessarily answering the right question, others warn.

    “The single largest determinant of Covid-19 mortality is healthcare system capacity,” said Sean McDonald, a senior fellow at the Centre for International Governance Innovation, who studied the use of phone data in the west African Ebola outbreak of 2014-5. “But governments are focusing on the pandemic as a problem of people management rather than a problem of building response capacity. More broadly, there is nowhere near enough proof that the science or math underlying the technologies being deployed meaningfully contribute to controlling the virus at all.”

    Legally, this type of data processing raises complicated questions. While European data protection law - the GDPR - generally prohibits processing of “special categories of personal data”, including ethnicity, beliefs, sexual orientation, biometrics and health, it allows such processing in a number of instances (among them public health emergencies). In the case of refugee movement prediction, there are signs that the law is cracking at the seams.
    “There is nowhere near enough proof that the science or math underlying the technologies being deployed meaningfully contribute to controlling the virus at all.”

    Under GDPR, researchers are supposed to make “impact assessments” of how their data processing can affect fundamental rights. If they find potential for concern they should consult their national information commissioner. There is no simple way to know whether such assessments have been produced, however, or whether they were thoroughly carried out.

    Researchers engaged with crunching mobile phone data point to anonymisation and aggregation as effective tools for ensuring privacy is maintained. But the solution is not straightforward, either technically or legally.

    “If telcos are using individual call records or location data to provide intel on the whereabouts, movements or activities of migrants and refugees, they still need a legal basis to use that data for that purpose in the first place – even if the final intelligence report itself does not contain any personal data,” said Ben Hayes, director of AWO, a data rights law firm and consultancy. “The more likely it is that the people concerned may be identified or affected, the more serious this matter becomes.”

    More broadly, experts worry that, faced with the potential of big data technology to illuminate movements of groups of people, the law’s provisions on privacy begin to seem outdated.

    “We’re paying more attention now to privacy under its traditional definition,” Nathaniel Raymond said. “But privacy is not the same as group legibility.” Simply put, while issues around the sensitivity of personal data can be obvious, the combinations of seemingly unrelated data that offer insights about what small groups of people are doing can be hard to foresee, and hard to mitigate. Raymond argues that the concept of privacy as enshrined in the newly minted data protection law is anachronistic. As he puts it, “GDPR is already dead, stuffed and mounted. We’re increasing vulnerability under the colour of law.”

    https://www.thebureauinvestigates.com/stories/2020-04-28/monitoring-being-pitched-to-fight-covid-19-was-first-tested-o
    #cobaye #surveillance #réfugiés #covid-19 #coronavirus #test #smartphone #téléphones_portables #Frontex #frontières #contrôles_frontaliers #Shin_Bet #internet #big_data #droits_humains #réseaux_sociaux #intelligence_prédictive #European_Asylum_Support_Office (#EASO) #EDPS #protection_des_données #humanitaire #images_satellites #technologie #European_Space_Agency (#ESA) #GMV #CGI #Niger #Facebook #Migration_Radar_2.0 #early_warning_system #BIP #Thales_Alenia #EGEOS #complexe_militaro-industriel #Vodafone #GSM #Italie #twitter #détection #routes_migratoires #systèmes_d'alerte #satellites #Knowledge_Centre_on_Migration_and_Demography #Big_Data for_Migration_Alliance #Bigmig #machine-learning #Hummingbird #weaponisation_of_the_data #IA #intelligence_artificielle #données_personnelles

    ping @etraces @isskein @karine4 @reka

    signalé ici par @sinehebdo :
    https://seenthis.net/messages/849167