• Vers un renouveau militant des questions technologiques ?
    http://www.internetactu.net/2020/07/15/vers-un-renouveau-militant-des-questions-technologiques

    Radical AI research CommunityLes chercheurs et praticiens de l’intelligence artificielle ont tendance à penser que l’IA est neutre ou bénéfique et que les problèmes qu’elle rencontre sont essentiellement liés aux données biaisées qu’elle utilise. Ils ont du mal à prendre la mesure des inégalités que leurs travaux exploitent et reproduisent explique l’artiste et chercheuse en IA Pratyusha Kalluri (@radical_ai), dans une tribune pour Nature (@nature), fondatrice du Radical AI Network, un réseau de (...)

    #éthique #technologisme #discrimination

    /assets/images/logo_ia.png

    • les algorithmes prennent des décisions contestables ayant des implications morales et sociales fortes, alors qu’elles demeurent souvent considérées comme techniques, a-morales si ce n’est neutres. Les résultats injustes et discriminatoires y sont traités comme des effets secondaires auxquels ont peut apporter des solutions techniques, plutôt que des problèmes qui masquent des hypothèses sous-jacentes aux solutions déployées, des opinions dans du code, dirait Cathy O’Neil. D’où l’importance pour les deux chercheurs de passer à une « éthique relationnelle », c’est-à-dire de reconnaître que ces biais sont inhérents à l’IA.

      les préjugés, l’équité et la justice sont des cibles mouvantes, tout comme les individus ou la société, qui évoluent au gré du temps. Il n’y a donc pas de réponse « définitive » à la question de la justice ou de l’éthique. Adopter une éthique relationnelle suppose donc d’examiner les conceptions et les solutions en continu, et d’interroger en permanence la définition même des termes et catégories que l’on utilise.

      Les acteurs du Tech for Good peinent à évaluer les relations entre les interventions techniques et leur impact social et ont tendance à penser que la réforme par la technologie est une stratégie appropriée pour le progrès social.

      L’informatique par exemple n’a pas pour l’instant développé de méthodologie rigoureuse pour examiner la relation entre les interventions algorithmiques qu’elle propose et leurs impacts sociaux à long terme.

      les informaticiens ont besoin d’appuyer leur expertise sur d’autres domaines, plus interdisciplinaire, ne donnant plus la priorité aux considérations techniques (comme l’amélioration de la précision ou de l’efficacité), mais avant tout à d’autres formes de connaissance et de critères.

      « lorsque nos données sont manipulées, déformées, volées, exploitées ou mal utilisées, nos communautés sont étouffées, empêchées ou réprimées, et notre capacité à nous autodéterminer et à prospérer est systématiquement contrôlée »

      toujours demander si une information ou champ d’information est nécessaire et son impact si on ne le renseigne pas.

      la technologie contribue à une « stratification sociale », c’est-à-dire combien elle fige l’organisation sociale et donc les inégalités. [...] « les personnes qui vivent dans des environnements où les droits sont faibles – communautés pauvres et ouvrières, communautés de migrants, communautés de couleur, minorités religieuses ou sexuelles – vivent déjà dans l’avenir numérique, c’est-à-dire dans la surveillance et la discipline qu’impose la technologie

      « La réalité est que les nouveaux outils de décision algorithmiques, les modèles prédictifs et les systèmes d’éligibilité automatisés font partie intégrante des machines politiques qui ont précédé. Ils s’inscrivent dans la profonde histoire de notre pays, qui a commencé à punir les pauvres avant que l’administration des programmes publics ne soit numérisée. Nous refusons également de considérer ces systèmes technologiques comme faisant partie de ce moment politique, qui est caractérisé par une haine absolue des pauvres. La haine absolue est endémique de tous les côtés du spectre politique. Notre culture politique fait d’eux des boucs émissaires : elle punit, stigmatise et criminalise les pauvres. »

      « Nous devons construire des outils explicitement politiques pour traiter les systèmes explicitement politiques dans lesquels ils fonctionnent. Nous devons les construire contre l’héritage de l’inégalité. Intentionnellement. » Or, rappelle-t-elle, « cela va à l’encontre de la formation des ingénieurs (qui sont accrochés à la notion de neutralité). Et c’est l’une des raisons pour lesquelles ce problème est un vrai défi ». Pour elle, « nous devons cesser de leur apprendre à ne pas se soucier du monde réel »

      « Au mieux, [les systèmes] ne sont pas fiables, au pire, ils sont des mascarades d’éthique technologiques qui contribuent à perpétuer les inégalités ».

      Désormais, si le numérique se retourne contre les gens comme une arme, alors nous devons aider les gens à s’en défendre, rappellent ces mouvements. Bien souvent, derrière nombre de ces luttes, désarmer le numérique est l’un des mots d’ordre pour changer l’action ! Passer de l’AI for good à l’AI for power & justice, l’un des chemins (« l’enjeu tient plus de la justice que de l’équité », disait très bien Kate Crawford).