• Contre les migrants, toujours plus de #technologie

    Reporterre s’est rendu au salon #Milipol pour découvrir les innovations technologiques sécuritaires. Elles sont de plus en plus déployées pour repousser les migrants.

    « Viens ici pépère ! » lance un homme élancé en costume-cravate en direction d’un chien-robot en mouvement, faisant mine de lui proposer à manger. Derrière les regards amusés autour du robot développé par l’entreprise étasunienne #Ghost_Robotics, son « maître » le guide avec sa télécommande d’un œil malicieux. Ce chien-robot au look Black Mirror répond au nom de #Q-UGV et sa mission consiste à surveiller des sites ultrasensibles comme les centrales nucléaires.

    Ce surveillant atypique, capable de courir, grimper et nager dans des environnements extrêmes, était l’une des nombreuses innovations présentées sur le salon Milipol de la sécurité intérieure au parc des expositions de Villepinte (Seine-Saint-Denis). Près de 1 000 exposants, dont deux tiers d’entreprises internationales, y ont élu domicile du mardi 19 au vendredi 22 octobre. Plus de 30 000 professionnels de la sécurité publique et privée de 150 pays déambulaient dans les allées. Entre une coupe de champagne et des petits fours, ils s’informaient pour en faire commerce sur les dernières grenades lacrymogènes, les dispositifs de reconnaissance faciale ou les fusils d’assaut.

    L’heure est à la reprise pour le secteur de la #sécurité. « La première des libertés », comme l’a assuré le ministre de l’Intérieur, Gérald Darmanin, lors de sa visite du salon le premier jour. Après avoir subi la crise sanitaire à l’instar d’une large partie de l’économie mondiale, le marché mondial de la #sécurité_intérieure devrait rebondir. Sa prévision de croissance est de 8 % en 2021 et de 6 % en 2022, après une baisse de 3 % en 2020. En France, il n’a pas été épargné non plus et les dépenses étatiques consacrées à la sécurité ont baissé de 8,6 %, pour atteindre 3,6 milliards d’euros. Mais certains domaines, comme celui des #drones_de_surveillance, ont tiré leur épingle du jeu avec une progression de 5,8 %. Alors que l’Union européenne peine toujours à s’accorder sur une politique commune de gestion des #frontières, chaque État membre est tenté de renforcer la #surveillance des siennes grâce à des technologies toujours plus sophistiquées.

    Mille et une façons de traquer les migrants

    Déjà déployés, en passe d’être expérimentés ou pas encore autorisés, les dispositifs de #détection de migrants sont présentés aux quatre coins de l’immense salle d’exposition. Nichés entre deux stands de drones, les représentants de la société française #HGH, spécialisée dans les #systèmes_électro-optiques, sont ainsi très sollicités. La série de #caméras_thermiques #Spynel, qui promet une « #surveillance_panoramique 360 degrés, #jour et #nuit, jusqu’à l’horizon » sur les frontières des pays intéressés, a du succès. À l’occasion du salon, l’entreprise vient de finaliser un contrat d’un million d’euros avec un pays de l’#Otan (Organisation du traité de l’Atlantique Nord) — dont elle tait le nom — pour sécuriser et surveiller sur près de 1 000 kilomètres de côte et empêcher les passages des migrants et des trafiquants de drogues. « C’est impossible d’échapper à la #vigilance de cette caméra, et à l’inverse des drones, on ne peut pas brouiller son signal, car elle n’émet aucune onde », se félicite le responsable marketing. « Si un groupe de personnes ou un zodiac s’approche de nuit d’un littoral dans la zone surveillée, l’#intelligence_artificielle détectera automatiquement le #mouvement et une alerte sera envoyée aux forces de sécurité », poursuit-il.

    De l’autre côté du salon, un groupe de gendarmes écoute attentivement les explications du représentant de l’entreprise néerlandaise #UVI-Scan. Sur la brochure commerciale, une page est consacrée à un #scanner capable de détecter les passagers clandestins sous les camions. Le visuel est explicite : accrochés sous un véhicule, deux migrants sont pris en flagrant délit. « Ce sont de vraies photos ! » assume le consultant technique. « C’est un système intégré à la chaussée qui détecte les #intrus et prend automatiquement une photo à l’approche des postes frontières et des ferrys », explique-t-il. « Nous en avons déployés un peu partout en Europe, notamment à #Dieppe, en France ». Là où de nombreux exilés tentent leur chance pour gagner les côtes anglaises par le ferry ou des embarcations de fortune.

    Entre deux stands de fusils d’assaut et des tenues de camouflages, un drone blanc aux allures d’avion miniature surplombe le stand de #German_Drones. L’entreprise allemande propose un « service personnalisé » à ses clients en fonction des usages ». Pour la détection de passages de migrants à la frontière, Anis Fellahi, le chef de projet international du groupe, recommande « le modèle 150, le plus performant, qui peut voler une heure et demie, couvrir une centaine de kilomètres, et transmet une vidéo de meilleure qualité ». Le dit #Songbird est d’ores et déjà déployé aux frontières allemandes et belges, et cherche à étendre son empreinte.

    Les industriels ne s’arrêtent pas là et proposent aux autorités des outils de #surveillance_aérienne toujours plus développées et intrusifs. L’entreprise française #T-ops intègre des #IMSI-Catcher directement embarqués sur les drones. Ce dispositif de #surveillance_de_masse est capable d’intercepter le trafic des communications téléphoniques, de récupérer et recouper ces informations à distance et de suivre les mouvements des utilisateurs. « Là nous proposons un produit avec une #efficacité au-delà du réel ! » s’exclame le représentant de la société. Cette technologie peut-elle être déployée pour repérer les migrants ? « C’est possible, oui. Mais nous ne fournissons qu’un service, le responsable de son utilisation est l’État », répond-il sobrement.

    Certains produits attendent des évolutions législatives pour être pleinement déployés. C’est le cas du drone de surveillance très longue distance présenté par le groupe belge #John_Cockerill, traditionnel acteur de la défense, lancé depuis peu dans la sécurité intérieure. « Ce type d’appareil peut voir jusqu’à 30 kilomètres et il est en capacité d’identifier très clairement des personnes », explique #Jean-Marc_Tyberg, le président du conseil d’administration du groupe. « À ce stade, nous devons intégrer un logiciel qui floute automatiquement le visage de la personne pour ne pas la reconnaître ». Mais selon lui, « se priver de ces outils de reconnaissance revient à fermer les yeux en conduisant. Il faut que l’on rattrape notre retard législatif pour que ces solutions puissent être pleinement utilisées. » Jean-Marc Tyberg fait référence aux longs débats autour de la controversée #loi_Sécurité_globale. Le Conseil constitutionnel avait fini par censurer le dispositif d’encadrement de l’utilisation des images des drones utilisés les forces de l’ordre, jugée trop dangereux au regard du #droit_à_la_vie_privée. Mais le gouvernement est revenu à la charge à la rentrée avec une disposition remaniée dans le projet de loi relatif à la sécurité intérieure, actuellement débattu au Parlement.

    Si la France n’est pas le terrain de jeu technologique idéal des industriels, d’autres États comme la #Grèce accueillent de nombreuses expérimentations plus poussées. Le pays frontalier de la Turquie est un passage obligé dans le parcours des migrants. Et il reçoit le soutien de l’agence de gardes-côtes européens #Frontex, accusée par des ONG et des médias d’opérer des refoulements illégaux à l’extérieur de l’UE. Si le gestionnaire des frontières européennes n’a pas de stand dédié ici, ses fournisseurs sont disséminés sur le salon. La société française #Cnim_Air_Space est l’un d’eux. « Notre modèle de #ballon_captif #Eagle_Owl gonflé à l’Hélium peut voler jusqu’à 600 mètres de haut, et possède une autonomie de 7 jours », expose fièrement le représentant de l’entreprise. Il est actuellement utilisé par les autorités grecques et l’agence Frontex. Un modèle plus petit a également été expérimenté autour de #Calais par la gendarmerie. Avec sa caméra embarquée, il renvoie en continu les #images vers une station positionnée au sol. « En cas d’alerte, si un zodiac débarque, les autorités grecques sont en capacité de les repérer à des kilomètres avant d’intervenir », précise-t-il. « Il mesure 22 mètres de long, donc le fait de le voir peut aussi avoir un effet dissuasif… ».

    La Grèce accueille également l’expérimentation du projet #Roborder, contraction de #robot et de border (frontière en anglais), lancé en 2017, qui prévoit un #système_de_surveillance des frontières par un essaim de #drones_autonomes, capables par l’intelligence artificielle de déterminer les franchissements. Le projet #iborder_control ambitionne quant à lui de développer un #algorithme capable de détecter les #mensonges des migrants lors de leur passage à l’aéroport.

    Mais sur le terrain, les associations d’aide aux personnes exilées observent que le renforcement de la surveillance des frontières ne décourage pas les candidats à l’asile, mais rend simplement leur parcours plus dangereux. Alors que la surveillance se renforce d’année en année, l’Organisation internationale des migrations a comptabilisé 1 146 décès de migrants sur les routes maritimes vers l’Europe au premier semestre 2021, contre 513 en 2020 et 674 en 2019 à la même période. Mais au salon Milipol, le rêve d’une Europe forteresse a de belles années devant lui.

    https://reporterre.net/Contre-les-migrants-toujours-plus-de-technologie

    ping @isskein @karine4

  • Usbek & Rica - « Robots tueurs » : le « Oui » sous conditions du Comité d’éthique de la défense
    https://usbeketrica.com/fr/article/oui-robots-tueurs-oui-france

    "Systèmes d’armes létaux pleinement autonomes (SLA)" vs
    "Systèmes d’armes létaux intégrant de l’autonomie (SLAi)" : ou comment se dédouaner à bon compte du débat éthique sur les robots tueurs...

    Voir aussi :
    – le "Rapport d’information déposé par la commission de la défense nationale et des armées sur les systèmes d’armes létaux autonomes" : https://www.vie-publique.fr/rapport/275499-les-systemes-darmes-letaux-autonomes#panel-2
    ...et en particulier le chapitre III où l’on voit bien que, comme pour la reconnaissance faciale, le prétexte de ne pas handicaper la start-up nation justifie tous les renoncements éthiques :

    III. Le débat sur les SALA ne doit pas parasiter les efforts entrepris dans le domaine de l’autonomie des systèmes d’armes, au risque d’un déclassement technologique, industriel et stratégique

    – le site de la campagne "Stopper les robots tueurs" https://www.stopkillerrobots.org/?lang=fr qui affirme clairement au contraire que la solution est :

    Interdire le développement, la production et l’utilisation de l’armement entièrement autonome.

    #robot_tueur #stop_killer_robots #SLA #éthique #Comité_d’éthique_de_la_défense #assemblée_nationale #contrôle_citoyen

  • We can’t ban killer robots – it’s already too late | Philip Ball | Opinion | The Guardian
    https://www.theguardian.com/commentisfree/2017/aug/22/killer-robots-international-arms-traders

    One response to the call by experts in robotics and artificial intelligence for an ban on “killer robots” (“lethal autonomous weapons systems” or Laws in the language of international treaties) is to say: shouldn’t you have thought about that sooner?

    Figures such as Tesla’s CEO, Elon Musk, are among the 116 specialists calling for the ban. “We do not have long to act,” they say. “Once this Pandora’s box is opened, it will be hard to close.” But such systems are arguably already here, such as the “unmanned combat air vehicle” Taranis developed by BAE and others, or the autonomous SGR-A1 sentry gun made by Samsung and deployed along the South Korean border. Autonomous tanks are in the works, while human control of lethal drones is becoming just a matter of degree.
    Elon Musk leads 116 experts calling for outright ban of killer robots
    Read more

    #robot_tueurs #drones

  • Dallas : la police a utilisé pour la première fois un robot pour tuer un suspect - L’Obs
    http://tempsreel.nouvelobs.com/monde/20160709.OBS4338/la-police-de-dallas-a-utilise-pour-la-premiere-fois-un-robot-po

    Le choix de la police de Dallas d’envoyer un robot télécommandé pour tuer l’homme suspecté d’avoir abattu plusieurs policiers marque une première pour les forces de l’ordre américaines. Et témoigne d’un usage qui devrait aller en se développant, selon des experts.

    #Dallas #police #robot_tueur #racisme

  • ‘Bomb Robot’ Takes Down Dallas Gunman, but Raises Enforcement Questions - The New York Times

    http://www.nytimes.com/2016/07/09/science/dallas-bomb-robot.html?_r=0

    The Dallas police ended a standoff with the gunman suspected of killing five officers with a tactic that by all accounts appears to be unprecedented: It blew him up using a robot.

    In doing so, it sought to protect police who had negotiated with the man for several hours and had exchanged gunfire with him. But the decision ignited a debate about the increasing militarization of police and the remote-controlled use of force, and raised the specter of a new era of policing.

    #robot_tueurs

  • Former US drone technicians speak out against programme in Brussels | World news | The Guardian

    https://www.theguardian.com/world/2016/jul/01/us-drone-whistleblowers-brussels-european-parliament?CMP=edit_2221

    Two whistleblowers on the US drone programme have joined campaigners in Brussels ahead of a European parliament hearing on the use of armed drones.

    Former military technicians Cian Westmoreland and Lisa Ling both worked on the high-tech infrastructure on which the drones flying in Afghanistan rely. They have now come forward as critics of the US drone programme.

    At an event this week, they spoke about strategic flaws in the drone programme and the risks of civilian casualties in drone warfare. On Thursday, they attended the parliamentary hearing where campaigners spoke of the impact of drones on civilian populations and the lack of compensation or recognition of their losses for the families of those killed and wounded.

    #drones #lanceurs_d_alerte #armes #armement #robot_tueurs

  • #blockchain : la nouvelle infrastructure des échanges ?
    http://www.internetactu.net/2016/02/17/blockchain-la-nouvelle-infrastructure-des-echanges

    La 11e édition de la conférence #lift qui se tenait à Genève s’est ouverte avec une session sur la fameuse Blockchain. Cette technologie cristallise aujourd’hui tous les espoirs de décentralisation et d’autonomie, à la suite de tant d’autres technologies qui ont connu leur heure de gloire avant d’être assimilées sans avoir vraiment réalisé ces mêmes promesses. Comme si cette longue…

    #lift16 #monnaie

    • Une fois un palier monétaire atteint, tous les gens qui ont participé à la nourrir sont ensuite invités par la plante (par son logiciel auto-évolutif) à l’aider à se reproduire. Pour cela, elle demande à ceux qui l’ont pollinisé/capitalisé de voter pour différents artistes qui se sont proposés pour être inséminés, c’est-à-dire pour créer un nouveau plantoid. Une fois sélectionné, celui-ci se verra attribuer les fonds récoltés pour concevoir un nouveau modèle qui dépendra du premier, puisqu’une part du financement de ce modèle servira à financer l’artiste originale et continuera à financer le plantoid originel. L’intérêt est que l’intelligence des contrats permet de spécifier des obligations. Plus le plantoid va se reproduire et plus il enverra des royalties à son créateur.

      C’est mignon la petite plantoide, mais on n’est plus en 1995, il faut passer tout de suite à la version militaire ou mafieuse. Le virus qui se réplique tout seul et envoie des bitcoins à son « créateur » de manière autonome. Le #robot_tueur autonome (nom de code : sicario) qui décide tout seul des gens à éliminer grâce à son logiciel auto-évolutif basé sur des derivatives sur un marché financier occulte opérant sur irc…

  • Des robots tueurs, des armes autonomes sans foi ni loi

    http://www.lemonde.fr/societe/article/2015/09/24/robots-tueurs-sans-foi-ni-loi_4770350_3224.html

    On l’appelle SGR-A1. De jour comme de nuit, sur un rayon de 4 kilomètres, ce robot militaire décèle, grâce à son logiciel de «  tracking  », les mouvements d’un intrus. Mis en marche à distance, cet automate pour poste-frontière tire de lui-même, de façon indépendante, sur toute personne ou véhicule qui s’approche. Conçu par Samsung, il est équipé d’une mitrailleuse, d’un lance-grenades, de capteurs de chaleur, de caméras de détection infrarouge et d’une intelligence électronique. En septembre 2014, la Corée du Sud a installé plusieurs de ces engins le long de la zone démilitarisée qui la sépare de la Corée du Nord, afin d’éviter d’envoyer des soldats dans des endroits isolés.

    C’est peu dire qu’une telle arme, «  intelligente   » et autonome, inquiète. Depuis 2012, elle est ­régulièrement dénoncée par une coalition de 51 organisations non gouvernementales (ONG) coordonnée par Human Rights Watch, dans le ­cadre de la campagne internationale «  Stop Killer Robots   » («  Arrêtez les robots tueurs   »). Le mouvement de protestation a été relancé à grand bruit, le 28 juillet, grâce à une lettre ouverte signée par près de 3  000 personnalités, dont des chercheurs en robotique, des scientifiques comme le physicien Stephen Hawking et des figures de l’industrie high-tech, comme Elon Musk, PDG de Tesla Motors, ou Steve Wozniak, cofondateur d’Apple. Pour eux, un tel robot militaire, et tous ceux qui risquent de suivre du fait des avancées rapides de l’intelligence artificielle, soulève de graves questions éthiques et juridiques qui remettent en cause le droit de la guerre.

    Droit moral

    (…) Or, lerobot sentinelle SGR-A1 est incapable de faire ces choix : il tire automatiquement sur tout ce qui bouge. Ce faisant, il risque à tout ​moment de violer deux principes du droit international humanitaire
    (DIH) qui régit les conflits armés depuis les conventions de Genève de 1949 et leurs protocoles additionnels : d’une part, la règle cardinale de la « distinction » entre les civils et les militaires ; ensuite, la nécessité d’éviter des violences « disproportionnées » par rapport aux menaces, et donc de procéder à une évaluation.

    L’autre problème soulevé par l’usage des robots tueurs est celui de la responsabilité pénale. Si l’un d’entre eux commettait un dommage collatéral ou abattait des civils, contre qui les victimes et leurs familles pourraient-elles se retourner ? ​Human Rights Watch pointe le « vide juridique » qui entoure ces armes nouvelles. Rien n’est prévu dans le droit international humanitaire.

    Pour discuter des dangers de ces systèmes d’armes létaux autonomes (SALA, la traduction française de lethal autonomous weapons systems), une réunion multilatérale mobilisant des représentants de 87 pays, ainsi que des délégués de la coalition d’ONG Stop Killer Robots, s’est tenue en mai 2014 aux Nations unies, à Genève, dans le cadre de la convention sur les armes classiques. Les ONG espèrent arriver à un accord pour l’interdiction de telles armes, comme cela fut le cas, en 2008, pour les armes à sous-munitions. Car, à écouter les spécialistes de la robotique qui les dénoncent, les SALA ont de quoi faire peur.

    « Létalité comparable à celle des armes nucléaires »

    Le 27 mai, dans la revue Nature, une tribune de l’Américain Stuart Russell, spécialiste de l’intelligence artificielle (IA), professeur d’informatique à l’université de Californie, prévenait que ces armes allaient être améliorées et développées « dans les années à venir » – c’est-à-dire très vite. Contacté par Le Monde, ce chercheur décrit l’extrême sophistication atteinte par « la combinaison des composants robotiques et de l’IA ». Equipé d’outils de navigation, de logiciels de « prise de ​- décision tactique » et de « planification à long terme », mais également doté d’un programme d’apprentissage, un véhicule inhabité trouve aujourd’hui seul son chemin dans un ​environnement difficile. Une fois militarisé, il pourra mener « des missions urbaines de recherche et d’élimination de cibles ». Stuart Russell ​assure qu’aux Etats-Unis, deux programmes de la Defense Advanced Research Projects Agency (Darpa), qui dépend du ministère de la défense, portent sur des hélicoptères miniatures capables de s’orienter seuls dans des immeubles où toute information est brouillée. Selon lui, l’armement de ces robots, qui pourraient diminuer jusqu’à n’être pas plus gros que des insectes – ce qui rappelle les agents arachnoïdes du film ​Minority Report (2002), de Steven Spielberg –, est déjà expérimenté en secret.

    Dans un rapport présenté à l’ONU en avril, M. Russell soutient qu’il faut s’attendre à voir apparaître d’ici vingt ans des essaims de giravions miniatures, équipés de cerveaux décisionnels et dotés de munitions capables de perforer les yeux ou de projeter des ondes ​hypersoniques mortelles. Ces armes pourraient posséder, dit-il, « une létalité comparable à celle des armes nucléaires » face à laquelle les humains « seront sans défense ». Dans leur lettre ouverte de juillet, les scientifiques avancent que le saut technologique, mais aussi éthique, franchi par l’usage présent et futur de SALA peut être comparé à l’invention de la « poudre à canon » et à celle des « armes nucléaires », et parlent d’une grave « perte d’humanité ». Ils soulignent que de telles armes, « intelligentes » mais sans aucune disposition morale, « sont idéales pour des tâches telles qu’assassiner, déstabiliser les nations, soumettre les populations et tuer un groupe ethnique particulier ». Ils ​- redoutent que « des dictateurs » les utilisent comme forces de l’ordre, ou que des « seigneurs de guerre » s’en servent pour « perpétrer un nettoyage ethnique ».

    Marché noir

    Ils expliquent enfin que ces robots ne sont pas coûteux à fabriquer, ne nécessitent aucune matière première rare, et qu’ils risquent ​d’apparaître rapidement « sur le marché noir ». Passant « aux mains de terroristes », ils deviendraient les « kalachnikovs de demain ». Autant de fortes raisons pour demander un moratoire international sur leur construction, en vue d’établir, comme le dit l’Américain Peter Asaro, philosophe s’intéressant à l’éthique des machines, « une norme interdisant toute délégation de tuer à une machine » et conservant « le choix de cibler et de tirer sous contrôle humain ».

    La campagne « Stop Killer Robots » est très critiquée, tant aux Etats-Unis qu’en Europe, par de nombreux spécialistes militaires, des ingénieurs de l’armement et des théoriciens de l’éthique des armes. En février 2013, le juriste américain Michael Schmitt, professeur de droit international à l’US Naval War College, a tenu à répondre sur le fond à Human Rights Watch dans le National Security Journal, de la faculté de droit de Harvard. Il estime que les opposants aux SALA jouent sur les mots en s’en prenant à l’« autonomie » des machines, alors que de nombreuses armes opération​nelles utilisent déjà des technologies intelli​gentes : certains missiles sol-air, surnommés « Fire-and-Forget
     » (« tire et oublie »), vont chercher seuls un objectif désigné, conduits par des outils de détection. Le canon antimissiles-antinavires Phalanx tire directement sur ses cibles grâce à un calculateur de position. Quant au système antiroquettes automatisé d’Israël, Iron Dome, utilisé en juillet 2014 durant l’opération Bordure protectrice, il est équipé d’un ordinateur de gestion de bataille.

    Si ces armes, explique Michael Schmitt, peuvent tirer de façon « automatique » sur une ​cible, elles n’en sont pas pour autant « auto​nomes ». L’homme « reste toujours dans la boucle de commandement », même s’il est très éloigné du terrain, et peut toujours décider d’arrêter à distance la mitrailleuse automatique, de reprogrammer le missile en vol ou le drone – autrement dit, il conserve l’acte moral de suspendre la décision de tuer. A ce jour, souligne Michael Schmitt, il n’existe pas encore de robots totalement indépendants. Il préfère s’en tenir à la définition avancée par le Defense Science Board américain (une instance de ​conseil du ministère de la défense), qui considère « les armes autonomes comme faisant partie d’un système homme-machine ».

    Nécessité stratégique

    En France, la spécialiste de l’éthique des machines Catherine Tessier, maître de conférences à l’Office national d’études et de recherches aérospatiales, avance dans l’ouvrage collectif Drones et « killer robots ». Faut-il les interdire ? (Presses universitaires de Rennes, 268 pages, 18 euros) que les anti-SALAconfondent les « automatismes embarqués », comme le pilotage et le guidage, avec l’autonomie. Pour elle, il ne faut pas oublier ce pour quoi a été « programmé » le robot, comment l’homme « partage les décisions » de la machine, interprète les évaluations de ses logiciels et peut l’arrêter. De son côté, la capitaine Océane Zubeldia, de l’Institut de recherche stratégique de l’Ecole militaire, rappelle que la robotisation, qui s’est ​accélérée avec l’essor extraordinaire des technologies de l’information et de la communication et des réseaux satellitaires, répond à une nécessité stratégique pour les armées.

    Depuis la première guerre du Golfe, en 1991, la guerre moderne est devenue, nous dit-elle, une « guerre cybernétique », une « guerre de l’information » utilisant des « systèmes d’armes intégrés » et des « véhicules inhabités » comme les drones. A cet aspect stratégique s’ajoute un ​objectif humanitaire et éthique : il faut « diminuer les risques de perdre les équipages » et « les éloigner de la zone des conflits ». « Le prix de la vie humaine, souligne-t-elle, n’a cessé de prendre de l’importance, et si la prise de risques reste une valeur essentielle du militaire, le “gaspillage” des vies n’est plus toléré, ni par la société ni par les autorités. »

    Epargner les soldats

    Une grande partie des arguments éthiques en faveur de la robotisation des armes découle de cet impératif humain : elle permet d’épargner les soldats – enfin, les soldats amis. Il est vrai qu’un robot ne peut être tué, blessé ou pris en otage. Il ne souffre pas des intempéries, ignore la fatigue et la peur, effectue sans état d’âme des missions-suicides. Il peut être envoyé dans des zones contaminées, minées, ou dans des sanctuaires ennemis et terroristes. Ce robot-soldat n’est pas affecté par la ​colère, la vengeance. Il ne viole pas, ne torture pas. Souvent, son tir est plus précis que celui d’un soldat. Océane Zubeldia pense qu’il peut jouer un rôle dissuasif, à la manière d’un ​- golem contemporain.

    Sur la question de la responsabilité en cas de crime de guerre, Didier Danet, du Centre de recherche des écoles de Saint-Cyr Coëtquidan (ministère de la défense), observe qu’un robot ne saurait être considéré comme une « personne morale » au sens de l’article 1134 du code civil : un sujet doué de volonté, se donnant à lui-même ses propres objectifs, compatibles avec le respect des lois existantes. Selon lui, aucun robot militaire ne répond à ces critères – et aucun sans doute n’y répondra jamais. La machine, nous dit-il, se contente d’une « autonomie fonctionnelle » limitée : son activité, l’« autorisation » de son action dépendent des opérateurs humains. Elle reste un objet de droit, non un sujet. D’ailleurs, écrit-il dans l’introduction de Drones et « killer robots », en termes juridiques le soldat reste responsable de l’usage qu’il fait de son arme. Si un robot commet un dommage collatéral, le commandement devra en répondre : c’est sur lui que le droit international humanitaire continue de s’exercer.

    Voilà pourquoi, analyse Didier Danet, il vaudrait mieux que l’ONU n’interdise pas les ​armes létales autonomes. Cela risquerait de compliquer encore le droit de la guerre, mais aussi de paralyser la recherche en robotique permettant d’éloigner les soldats des zones de conflit.

    Luttes éthiques

    De toute façon, l’histoire des armements et de leurs usages montre que les luttes éthiques pour interdire des armes jugées irrecevables aboutissent rarement, mais aussi que le jugement porté sur elles évolue. Alain Crémieux, ancien ingénieur général de l’armement, auteur de L’Ethique des armes (Aegeus, 2006), rappelle qu’en 1139 déjà, lors du IIe concile de Latran, l’usage de l’arbalète avait été interdit entre chrétiens. Il paraissait « moralement inacceptable » que les « piétons » des armées, des gens du peuple, puissent abattre des chevaliers à distance. Pourtant, l’arbalète a été conservée. Elle a été remplacée, au début du XVIe siècle, par l’arquebuse, elle aussi rejetée par les moralistes pour sa létalité, puis par le mousquet, l’ancêtre du fusil à silex, lui-même adopté en France sous le règne de Louis XIV. Or, fait remarquer Crémieux, depuis, rares sont ceux qui remettent en cause les armes à feu légères : « Elles ont même été tellement identifiées à la guerre nationale et à la guerre populaire qu’il paraît inutile de chercher à les décrier. Le pouvoir et la liberté elle-même ne peuvent-ils pas être “au bout du fusil” ? »

    L’historien François Cochet, spécialiste de la mémoire des guerres, met en lumière la contradiction permanente entre le « sentiment d’horreur » que soulèvent certaines armes et le « cynisme » politique et militaire qui l’accompagne. Il donne un exemple fameux : en 1899, la conférence de la paix de La Haye, à laquelle participent 26 gouvernements, décide d’interdire « de lancer des projectiles et des explosifs du haut des ballons ou par d’autres modes analogues ». Une mort venue d’en haut, hors de portée, parfois hors de vue, semblait alors insupportable. « Ces exigences, constate François ​Cochet, n’ont pas arrêté les bombardements ​aériens pour autant ! Les Etats ont signé les protocoles, sans toujours les ratifier, en se préparant cyniquement à l’étape suivante, l’aviation militaire, que les Européens ont testée dans leurs colonies. » L’historien relève un autre exemple de cynisme : « Après 14-18, l’Allemagne a demandé l’interdiction des gaz asphyxiants, qu’elle avait beaucoup utilisés dans les tranchées, parce qu’elle savait que les autres pays en disposaient. »

    L’interdiction, un combat perdu ?

    Alors, interdire une arme effroyable, un combat perdu d’avance ? Les ONG et les scientifiques qui s’opposent aux robots tueurs refusent de céder au cynisme du laisser-faire. Ils rappellent que plusieurs batailles éthiques récentes ont mené à l’interdiction par l’ONU et par le droit international humanitaire des ​armes chimiques (1993), des armes à laser aveuglantes (1995) et des mines antipersonnel (1997). Bonnie Docherty, membre d’Human ​Rights Watch et enseignante à la Harvard Law School, a publié le 4 septembre un mémoire où elle répond aux arguments de ceux qui justifient les SALA en affirmant que les militaires resteront responsables – et devront rendre des comptes en cas de crime de guerre. Elle montre que, au contraire, ils pourront toujours se retrancher derrière une faute du robot, arguant que les communications avec lui ont été rompues, qu’il a agi trop vite, que les spécialistes étaient absents ou qu’un logiciel a dysfonctionné. Les victimes, elles, auront le plus grand mal à ​demander réparation, car la responsabilité personnelle, base du droit, se trouvera diluée dans des dispositifs techniques.

    Faudra-t-il alors, demande la juriste, se ​retourner contre les fabricants des armes ? La Direction générale de l’armement ? Ou contre les politiques qui ont validé l’usage des SALA ? Pour Human Rights Watch, de telles démarches juridiques rencontreront des obstacles ​insurmontables : elles n’aboutiront pas. Cette impunité leur semble très grave. Elle rendra très difficile de « dissuader » les militaires et les forces de l’ordre d’utiliser des robots létaux. Nous entrerions alors dans une époque plus inhumaine.