Machines à biais - Propublica
▻http://alireailleurs.tumblr.com/post/144849747113
Sur Propublica, la journaliste Julia Angwin et le responsable données Jeff Larson signent une terrible enquête sur les biais racistes des #algorithmes de prédiction des crimes (voir également “Quel est votre score de menace ?”). Ils évoquent en introduction un terrible exemple entre une jeune femme noire arrêtée pour un vol et un homme blanc d’une quarantaine d’année arrêté pour un crime similaire et condamné d’une manière proche. Le second ayant plus d’antécédents criminels que la première. Et bien le programme algorithmique utilisé par la police pour leur attribuer un score de menace classe la jeune femme comme bien plus à risque que l’homme. Deux ans plus tard, la jeune femme n’a pas commis d’autres crimes, alors que l’homme lui a été condamné pour un autre crime à 8 ans de prison. L’évaluation automatique (...)