• Une intelligence artificielle révèle les préjugés anti-LGBT (et anti-plein d’autres gens) des chercheurs de Stanford
    http://www.casilli.fr/2017/09/09/une-intelligence-artificielle-revele-les-prejuges-des-chercheurs-de-stanford

    les auteurs testent un réseau de neurones contre des humains. Leur mission : regarder des photos de visages et dire si la personne représentée est gay ou hétéro. Mais toutes les photos sont tirées d’un site de rencontre en ligne et la base de profils de personnes gays sur laquelle le réseau de neurones s’entraîne est collectée à partir d’usagers de Facebook qui ont liké des pages “gay”. Parce qu’évidemment la manière de se présenter sur les plateformes sociales est une réalité objective… Et la complexité des motivations qui poussent une personne à aimer un contenu se réduisent à une adhésion univoque à la prétendue orientation dudit contenu.

    Autre biais méthodologique : d’où viennent les évaluateurs humains vis-à-vis desquels cette IA s’avère plus performante ? Ils sont des micro-travailleurs d’Amazon Mechanical Turk payés quelques centimes de dollar par clic. Mais pas des micro-travailleurs au hasard, hein. Que des citoyens étasuniens. Les américains, c’est connu, sont exactement comme tous les autres citoyens de n’importe quelle autre nation de notre grande et belle planète, quand il s’agit d’interpréter des indices sociaux et des repères de comportements. Et les biais culturels à l’œuvre dans la stigmatisation sexuelle ou dans l’étiquetage social de l’orientation sexuelle, on s’en fout.

    De toute façon, il y a plus grave que ça. L’article est basé sur une vision absolument binaire, essentialiste et exclusive des orientations sexuelles humaines : t’es gay/lesbienne ou tu ne l’es pas. Le type de vision on ne peut plus hétéronormative, qui n’admet pas de situations intermédiaires ou de négociations légèrement plus sophistiquées de l’identité sexuelle, des comportements et des formes d’appartenance aux communautés LGBTQ.
    Qui plus est, de manière assumée les résultats de l’étude ne concernent que des images de personnes blanches. Mais c’est pas grave, hein. Ce n’est pas comme si les système de reconnaissance faciale étaient au centre d’une polémique internationale à cause de leurs biais racistes et de leur difficulté avérée à tenir les mêmes niveaux de performance quand le visage analysé n’est pas 100% “caucasien”…