• Intelligence artificielle : l’Europe face aux apprentis sorciers
    https://www.telerama.fr/debats-reportages/intelligence-artificielle-leurope-face-aux-apprentis-sorciers-6865602.php

    Alors que l’intelligence artificielle ne cesse de se développer, la Commission européenne vient de présenter son projet pour réguler les technologies numériques dans “le respect de l’humain”. Mais cette volonté d’encadrement est-elle tenable face aux appétits des géants chinois et américains ?

    Évoquant l’équilibre, Julien Gracq disait qu’« il suffit d’un souffle pour tout faire bouger ». Dans le rôle du funambule, la Commission européenne vient de publier son projet de règlement sur l’intelligence artificielle (IA). Alors que celle-ci s’insinue partout, charriant son lot de promesses – parfois intenables – et de prophéties autoréalisatrices, l’Europe prend l’initiative, selon la commissaire Margrethe Vestager, d’« élaborer de nouvelles normes qui garantiront une IA sûre, tournée vers le progrès et centrée sur l’humain ». Privilégiant une approche fondée sur le risque, Bruxelles cherche une ligne de crête qui permettrait d’encadrer ce nouvel eldorado sans l’interdire, de respecter les libertés sans hypothéquer l’innovation. Mission impossible ?

    Le sandwich sino-américain

    Trois ans après l’entrée en vigueur du Règlement général sur la protection des données (RGPD), régulièrement salué comme une avancée dans le champ du respect de la vie privée, l’Europe veut remettre le couvert et se positionner comme le champion de la régulation technologique. Le couloir de nage est néanmoins étroit : coincée entre un modèle américain prédateur des données personnelles et un paradigme chinois fondé sur le contrôle social dopé aux algorithmes, l’Union européenne connaît une impuissance relative. Pas facile d’être un gendarme en 2 CV quand les go fast roulent en Maserati.

    Thierry Breton, le commissaire au marché intérieur, a beau répéter que « l’UE doit organiser l’univers numérique pour les vingt prochaines années », en matière d’intelligence artificielle, le futur s’écrit pour l’heure à Shenzhen ou en Californie plutôt qu’à Bruxelles. Il suffit par exemple de jeter un œil curieux sur une présentation déclassifiée de la Commission de sécurité nationale sur l’intelligence artificielle (NSCAI), qui conseille le Congrès et oriente la politique technologique des États-Unis. L’organe, présidé par Eric Schmidt, ancien patron de Google, y déplore l’avance du rival chinois dans des domaines aussi variés que « les véhicules autonomes, les villes intelligentes, les services de transport ou les échanges dématérialisés ». Et affirme sans détours dans une diapositive : « La surveillance est le meilleur client pour l’intelligence artificielle. »

    De quoi mettre à mal les bonnes volontés européennes, pourtant bien réelles. Si la Chine – qui vise une économie de l’IA valorisée à 150 milliards de dollars d’ici à 2030 – n’est pas nommée dans le document de la Commission, son fameux « crédit social », au nom duquel chaque individu se voit attribuer une note modulée en fonction de ses actions quotidiennes, est agité comme un repoussoir absolu : l’Europe suggère ainsi d’interdire ces outils, qui portent « un préjudice systémique à certains individus ou groupes de personnes ».

    Exceptions sécuritaires…

    Autre point saillant : l’identification en temps réel dans l’espace public, qui serait également proscrite. La recommandation a de quoi surprendre quand on sait qu’en janvier 2020 l’Union européenne a renoncé à un moratoire de cinq ans sur la reconnaissance faciale. Mais le diable se niche dans les détails : primo, la biométrie intrusive resterait possible a posteriori ; deuxio, le texte prévoit plusieurs exceptions qui permettraient aux autorités de recourir à ces technologies. Si une première version du texte (ayant fuité la semaine dernière) se contentait d’une grossière dérogation sécuritaire, le projet final réduit les cas d’usage à trois situations : la recherche de victimes et d’enfants disparus, la prévention d’actes terroristes imminents et la localisation de personnes recherchées par la police pour des crimes punis d’au moins trois ans de prison.

    Le projet de règlement mentionne également les intelligences artificielles utilisées aux limites de l’espace communautaire, susceptibles d’« affecter des personnes en situation vulnérable ». Ces outils seraient considérés comme « à risque » et donc assujettis à des contrôles particuliers, sans pour autant être bannis. Ce n’est pas neutre : sous l’égide de Frontex, l’agence européenne de gardes-frontières, l’Europe mobilise drones, caméras thermiques et autres détecteurs de fréquence cardiaque pour refouler – illégalement – les migrants. Or, comme le rappelait le collectif Border Violence Monitoring Network dans un rapport récent, ces technologies répressives contribuent à les déshumaniser, légitimant les violences commises à leur encontre par la police.

    … et péril pseudoscientifique

    Plus surprenant, le projet de règlement reste particulièrement flou au sujet des « systèmes de catégorisation biométriques », autorisant et mettant sur le même plan des IA capables de classer les individus en fonction de leur couleur de cheveux et d’autres qui prétendent les ordonner suivant leur origine ethnique ou leur orientation sexuelle. Inacceptable pour une quarantaine d’eurodéputés. Dans un courrier adressé à la présidente de la Commission, Ursula von der Leyen, ils réclament l’interdiction pure et simple de telles pratiques, « qui réduisent la complexité de l’existence humaine à une série de cases binaires, risquant de perpétuer de nombreuses formes de discrimination ». Le péril n’est pas seulement théorique : il y a quelques mois, un chercheur américain, déjà à l’origine d’un « gaydar » dopé à l’intelligence artificielle, publiait un article scientifique dans la revue Nature, affirmant qu’on peut inférer les opinions politiques d’un individu grâce à la reconnaissance faciale.

    En l’état, cet angle mort du texte européen pourrait contribuer à ressusciter les pseudosciences racistes du XIXe siècle, au premier rang desquelles la physiognomonie, qui prétend examiner le langage animal du corps et déduire la personnalité d’un individu sur la foi des traits de son visage. Largement utilisée par les eugénistes pour soutenir leurs thèses, cette discipline dangereuse revit aujourd’hui sur un marché émergent de la détection des émotions, boosté par la pandémie. La physiognomonie est par exemple à l’origine de la start-up Clearview AI, l’épouvantail de la reconnaissance faciale, aujourd’hui poursuivie aux États-Unis pour avoir illégalement bâti une base de données de 3 milliards de visages. Appelant récemment à une régulation drastique de l’identification des affects, la chercheuse australienne Kate Crawford évoquait la nécessité de résister à « la pulsion phrénologique », un autre charlatanisme selon lequel nos caractères dépendent de la forme de notre crâne : « Nous devons rejeter la mythologie selon laquelle nos états d’âme sont un jeu de données qu’on pourrait extraire de nos visages. » Le pays moteur dans ce secteur infréquentable ? La Chine.

    #Frontex #algorithme #CCTV #drone #biométrie #migration #température #données #facial #législation #reconnaissance #vidéo-surveillance #BigData #surveillance (...)

    ##[fr]Règlement_Général_sur_la_Protection_des_Données__RGPD_[en]General_Data_Protection_Regulation__GDPR_[nl]General_Data_Protection_Regulation__GDPR_