L’intelligence artificielle d’Amazon confond des politiques avec des criminels

#utm_campaign=Echobox

  • L’intelligence artificielle d’Amazon confond des politiques avec des criminels

    https://www.bfmtv.com/tech/l-intelligence-artificielle-d-amazon-confond-des-elus-avec-des-criminels-1495

    Une association américaine de défense des libertés pointe les limites de la technologie de reconnaissance faciale d’Amazon et met en garde contre son usage par les autorités.

    Fin mai, des associations demandaient à Amazon de ne plus fournir ses solutions de reconnaissance faciale aux forces de l’ordre. Parmi elles, l’ACLU (Union américaine pour les libertés civiles), qui défend les droits et les libertés aux États-Unis. Ce 26 juillet, l’organisme a publié un rapport sur ses propres tests réalisés à partir d’Amazon Rekognition, la technologie en question. L’ACLU a demandé au logiciel développé par la firme américaine de comparer le visage des membres du Congrès à une base de données de 25.000 criminels recherchés. Sur les 535 élus, Amazon en a identifié 28 comme criminels. Un taux d’erreur de 5%, jugé bien trop important par l’association.

    Les Afro-Américains surreprésentés

    Parmi les 28 élus concernés par ces faux positifs, 40% sont noirs, alors que les Afro-Américains ne représentent que 20% des élus du Congrès. Un résultat qui suscite les craintes de l’ACLU. “Les personnes de couleur sont déjà disproportionnellement blessées par les pratiques policières et il est facile d’imaginer comment Rekognition pourrait amplifier le phénomène”, écrit l’association sur son site. Elle cite le cas de la police d’Orlando (Floride), qui utilise déjà la solution mise au point par Amazon.