Article36

https://article36.org

  • L’usage revendiqué de l’intelligence artificielle par l’armée israélienne questionne le droit de la guerre
    https://www.lemonde.fr/idees/article/2023/12/14/l-usage-revendique-de-l-intelligence-artificielle-par-l-armee-israelienne-qu

    Cette question des applications militaires est importante. Une opération militaire donne le plein pouvoir aux militaires, qui ont en principe un « objectif » fixé par le pouvoir civil, mais ont ensuite la maîtrise des moyens pour y parvenir, sans devoir rendre de compte devant la justice (la CPI reste trop faible). Dès lors si en deuxième main la responsabilité léthale est confiée à une IA, on est encore plus loin de la responsabilité (souvent jugée ultérieurement... pas les vainqueurs) qui pourrait être relevée pour crimes de guerre.

    Enfin, quand la guerre se résume à détruire son voisin en limitant ses risques, on peut s’attendre à des guerre de plus en plus terribles pour les populations civiles. On retrouve le débat sur les drones armés.

    Parmi toutes les horreurs de la guerre qui a éclaté le 7 octobre entre Israël et le Hamas, il en est une qui est venue, de façon inattendue, ajouter une dimension dystopique à ce conflit : le recours assumé, par l’armée israélienne, à la puissance de l’intelligence artificielle (IA) pour maximiser son écrasement du mouvement islamiste. Une IA présentée comme une des composantes-clés de l’un de ses outils de ciblage pour ses campagnes de frappes aériennes sur la bande de Gaza, baptisé Habsora (« Evangile »).

    Difficile de savoir à quel point cette révélation inopinée, début novembre, au lendemain de la trêve de sept jours ayant permis la libération de 110 otages, a été le résultat d’une stratégie de communication maîtrisée. Des enquêtes de presse rapportaient alors les états d’âme d’anciens membres de l’armée israélienne sur l’emploi de ce logiciel capable de proposer des cibles à une vitesse inédite à partir d’une masse de données hétérogènes. Les mots « intelligence artificielle » sont parfois un fourre-tout qui englobe beaucoup d’applications numériques, qu’elles soient civiles ou militaires.

    Une chose apparaît néanmoins évidente, depuis, aux yeux d’experts : l’ampleur des destructions et le nombre inédit de victimes civiles à Gaza – plus de 18 000, selon le ministère de la santé du Hamas – pourraient faire bouger les lignes sur l’encadrement de l’IA dans les systèmes d’armes. « Cela fait des années que le sujet ne fait l’objet d’aucun consensus chez les spécialistes. Cette guerre pourrait permettre d’accélérer certains débats », soutient ainsi Julien Nocetti, chercheur associé à l’Institut français des relations internationales (IFRI), spécialiste des conflits numériques.
    Lire le décryptage : Article réservé à nos abonnés Israël-Hamas : « Le Monde » face à la guerre des images

    Les armements sont en effet aujourd’hui divisés en deux grandes catégories. D’un côté, les systèmes d’armes létales autonomes, totalement automatisés, dont il n’existe pas réellement d’exemples sur le marché. De l’autre, les systèmes d’armes létales « intégrant » de l’autonomie (SALIA), qui permettent en principe à l’homme de rester « dans la boucle ». Or l’immense majorité des puissances militaires occidentales – dont Israël avec Habsora – assurent aujourd’hui avoir fait le choix des SALIA, et peuvent ainsi jurer être du côté respectable de l’emploi de la force.

    Mais, pour Laure de Roucy-Rochegonde, également chercheuse à l’IFRI, autrice d’une thèse sur la régulation des systèmes d’armes autonomes, les spécificités de la guerre entre Israël et le Hamas pourraient ringardiser ces catégories aux contours flous et redonner de la vigueur à un autre concept de régulation, celui de « contrôle humain significatif ». Une définition plus stricte, poussée sans grand succès jusqu’ici par certains défenseurs des droits de l’homme, dont une ONG dénommée Article 36. « Le problème, c’est que l’on ne sait pas quel type d’algorithme est utilisé [par l’armée israélienne], ni comment les données ont été agrégées. Ce ne serait pas un problème s’il n’y avait pas, au bout, une décision de vie ou de mort », reprend Mme de Roucy-Rochegonde.

    #Intelligence_artificielle #militarisme #Guerre

    • Article36
      https://article36.org

      Article 36 is a specialist non-profit organisation, focused on reducing harm from weapons. We are a small and effective team of advocacy and policy experts based in the UK.

      We partner with civil society groups and governments to develop new policies and legal standards to prevent civilian harm from existing and future weapons.

      Our team has more than a decade of experience in diplomatic negotiations and developing practical, actionable policies.

    • Traités de DIH - Protocole additionnel (I) aux Conventions de Genève, 1977 - Article 36
      https://ihl-databases.icrc.org/fr/ihl-treaties/api-1977/article-36

      Article 36 - Armes nouvelles
      Dans l’étude, la mise au point, l’acquisition ou l’adoption d’une nouvelle arme, de nouveaux moyens ou d’une nouvelle méthode de guerre, une Haute Partie contractante à l’obligation de déterminer si l’emploi en serait interdit, dans certaines circonstances ou en toutes circonstances, par les dispositions du présent Protocole ou par toute autre règle du droit international applicable à cette Haute Partie contractante.

      Protocole I — Wikipédia
      https://fr.wikipedia.org/wiki/Protocole_I

      Ratification
      En février 2020, ce protocole avait été ratifié par 174 États ; certains pays importants n’ayant pas ratifié le protocole sont les États-Unis, Israël, l’Iran, le Pakistan, l’Inde et la Turquie.

      surprise !