CEPED_MIGRINTER_ICMigrations_santé

Fil d’actualités Covid19-Migration-santé (veronique.petit@ird.fr) relié à CEPED-MIGRINTER-IC MIGRATIONS.

  • Royaume-Uni : l’utilisation de l’intelligence artificielle pour trier les migrants inquiète les ONG - InfoMigrants
    https://www.infomigrants.net/fr/post/61167/royaumeuni--lutilisation-de-lintelligence-artificielle-pour-trier-les-

    Royaume-Uni : l’utilisation de l’intelligence artificielle pour trier les migrants inquiète les ONG
    Par RFI Publié le : 14/11/2024
    Au Royaume-Uni, les défenseurs des droits des migrants s’inquiètent de la gestion des demandes d’asile. Selon plusieurs ONG, le gouvernement britannique s’en remettrait à l’intelligence artificielle pour départager les candidatures.
    Le groupe militant Privacy International révèle ses inquiétudes concernant un logiciel en particulier, appelé IPIC pour « Identification et Priorisation des Affaires d’Immigration ». Son but, faciliter la prise de décision concernant les migrants et les demandeurs d’asile susceptibles d’être expulsés. Comment ? En analysant des dizaines de données comme l’état de santé, l’ethnicité ou le dossier judiciaire, selon l’ONG Privacy International. Le programme digère toutes ces informations et émet une recommandation au sujet de l’individu, en faveur ou non de son expulsion.
    Le gouvernement britannique aurait commencé à utiliser IPIC vers 2019-2020, et il fait face dès lors à un amoncellement de demandes. La technologie est souvent présentée dans ce contexte comme la solution à des délais qui ne font que rallonger et pèsent sur les finances publiques.
    Les organisations de défense des droits y voient plusieurs problèmes, comme la confidentialité des données récoltées, en particulier celles qui touchent à la santé. Ensuite et surtout, elles dénoncent un manque de transparence. Privacy International a mis plus d’un an à obtenir des informations, un droit pourtant inscrit dans la loi au Royaume-Uni. L’ONG s’inquiète de la manière dont ces informations sont utilisées. Un exemple sur la santé : l’ancien ministre conservateur de l’Intérieur, James Cleverly, estimait que certains demandeurs d’asile faisaient semblant d’avoir des idées suicidaires pour influencer la décision en leur faveur. Se pose alors la question : l’algorithme peut-il être modifié suivant les positions du gouvernement ?
    Les associations, pas seulement Privacy International, s’indignent notamment que des décisions aussi importantes, qui concernent la vie de plus de 40 000 personnes, dépendent autant de la technologie. Des études ont déjà montré que les outils d’analyse présentent des biais discriminatoires similaires à ceux qui existent dans la société. En plus, des erreurs ont pu être constatées, notamment sur l’identité des personnes.
    Officiellement, l’algorithme émet une recommandation qui doit faciliter le travail des officiers de l’immigration. Dans les faits, ces derniers font face à un nombre de demandes très élevé et n’ont pas toujours les moyens de les traiter en profondeur. Bien sûr, il est possible de rejeter la recommandation, mais le logiciel réclame alors une justification détaillée En bref, il est beaucoup plus simple pour les employés du ministère de suivre les recommandations du logiciel. Or, les demandeurs d’asile ne sont pas toujours avertis que la technologie a été utilisée, limitant ainsi leurs possibilités de recours. Le gouvernement n’a pour l’instant pas souhaité réagir.

    #Covid-19#migrant#migration#royaumeuni#IA#asile#sante#ethnicite#droit#immigration