person:alexander harang

  • Nous sommes sans doute la dernière génération à vivre avant l’utilisation réelle des « robots tueurs » sur le terrain

    "Les opérateurs voient quatre hommes barbus (sic) avec des fusils sur l’épaule..."

    Alexander Harang du « Conseil pour la paix » est très actif dans la lutte contre les robots tueur. La grande photo représente le drone « Predator » lequel est équipé de missiles air-sol : c’est celui qui est utilisé au Pakistan.

    - D’ici dix à vingt ans, les « robots tueurs » seront utilisés sur les champs de bataille, dit Alexander Harang. Tobias Malher et Alexander Harang ont participé cette semaine à un séminaire sur les « robots tueurs » à l’institut PRIO à Oslo.

    « Robots militaires » : c’est le nom commun donnés aux armes qui non seulement peuvent tuer à distance - comme les drones d’aujourd’hui - mais aussi prendre la décision lui même de tuer – et de le faire !

    Trois types de Robots :

    Robots téléguidées : Ils sont armés (comme les drones aujourd’hui), mais ce sont des êtres humains qui analysent la situation et décide si l’arme doit être utilisée.

    Robots automatiques : L’ordinateur analyse la situation et les réponses possibles, mais ce sont toujours les êtres humains gens qui décident si l’arme doit être utilisée.

    Robot autonome : L’ordinateur analyse de la situation et les réponses possibles, et décide de lui même si l’arme doit être utilisée. (brrrr....)

    Le journaliste de la NRK décrit l’utilisation du drone de la manière suivante (c’est assez époustouflant) :

    Un drone survole une zone montagneuse au Pakistan et observe ce qui se passe au sol. Les caméras embarquées renvoient les images aux Etats-Unis où des opérateurs les analysent. Les opérateurs voient quatre hommes barbus (sic) avec des fusils sur l’épaule. Les opérateurs décident d’appuyer sur un bouton, une seconde plus tard un missile est tiré, les quatres hommes barbus (sic) sont morts instantanément.

    Ainsi va la vie aujourd’hui au Pakistan, en Afghanistian , au Yémen ,en Somalie et peut-être plus récemment dans le nord du Niger [et du Mali]. Dans les seules zones tribales pakistanaises frontalières de l’Afghanistan, plus de 3 500 personnes ont été tuées dans les attaques de drones depuis une decennie.

    La plupart d’entre eux étaient des militants musulmans (sic), dont certains étaient sur ​​la liste des terroristes établie par la CIA, mais plusieurs centaines d’autres étaient des civils innocents qui se trouvaient au mauvais endroit au mauvais moment.

    Mais dans quelques années, l’opérateur qui se trouve quelque part aux États-Unis sera sans doute superflu. L’image des quatre hommes armés sera envoyé directement au drone. Un ordinateur de bord permettra (au drone) d’analyser la situation à partir d’un ensemble de paramètres, lequel ordinateur prendra ensuite la décision de tuer ou de de laisser ces hommes en vie.

    On est en train de concevoir et programmer des ordinateurs selon le concept "thumbs down" [pouce en bas]. Avec une telle machine, les quatre hommes barbus (sic) sur le terrain seront alors tués sans qu’un être humain n’ait pris la décision de le faire « directement »

    Le drone britannique « Taranis » sera probablement en mesure de fonctionner sans contrôle humain direct. Photo : BAE Systems / AP

    Une campagne contre les « robots tueurs » a débuté à Londres en avril 2013, soutenue par 45 organisations non-gouvernementales dans 20 pays.

    Il existe en fait des versions plus avancées de drones armés – non utilisés, encore en développement – qui sont assimilés aux « robots tueurs ». Tobias Mahler souligne que ce n’est pas nécessairement des armes au sens traditionnel du terme. Pour illustrer son propos, il donne une image :

    Imaginez la porte d’entrée du bâtiment de la NSA aux Etats-Unis. Elle peut-être programmée pour reconnaître les gens à partir de l’analyse de leurs yeux. Cette porte automatique peut aussi être programmée pour claquer dans la gueule de celui qu’elle ne reconnaît pas et éventuellement le tuer ! C’est la programmation qui fait tout, mais le programmeur peut-il tout prévoir ?

    Les États-Unis et Israël sont les pays les plus en pointe dans le développement des « robots tueurs » mais la Russie et la Chine ont probablement des programmes avancés. Il y a de bonnes raisons de croire que l’heure de l’utilisation en réel des « robots tueurs » est beaucoup plus proche qu’on ne le croit.

    Tobias Malher souligne que les militaires développent les « robots tueurs » pour répondre à l’argument suivant :

    Développer des armes autonomes pour éviter au maximum de mettre nos troupes en danger [des guerres sans soldats].

    Et ces mêmes militaires [quand même] de se demander s’il est éthique de développer des armes qui décident toutes seules de tuer ou pas (sic) … !


    L’avion sans pilote X -47B fabriqué par Northrup Grumman sur la base Edwards en Californie sera en mesure d’attaquer des armes sans contrôle humain. Photo : Alan Radecki , Northrup Grumman, marine / AP.

    Le journaliste de la NRK poursuit avec cet encadré :

    « Les robots doivent faire des choix éthiques »

    – Si les « robots tueurs » autonomes doivent être utilisés, ils doivent être programmés pour faire des choix éthiques.
    – C’est aussi des questions auxquelles sont confrontées les développeurs de voitures civiles « auto-conduites »

    – Par exemple, une voiture autonome (auto-conduite) circule avec quatre personnes à bord. Que fera-t-elle si un enfant traverse soudainement la chaussée juste devant elle alors qu’un camion arrive en sens inverse ?

    – Le véhicule devra choisir entre deux options :

    1. Tourner vivement pour éviter l’enfant et donc entrer en collision avec le camion venant en sens inverse, avec de possible graves conséquences pour les quatre personnes se trouvant dans la voiture.

    2. Continuer tout droit et percuter l’enfant, avec comme résultat probable la mort de celui-ci.

    En Norvège, la question des « robots tueurs » est totalement absente du débat politique (les élections parlementaires ont lieu l9 septembre 2013) alors que ce débat a bien eu lieu dans plusieurs autres pays européens. Ça n’a même pas été un enjeu de la campagne alors que la Norvège a un programme militaire de production d’armement (petit, mais qui existe quand même).

    En Allemagne, où l’on vote aussi mi-septembre, Die Linke a fait de la lutte contre les « robots tueurs » un de leurs principaux enjeux de la campagne.

    –----

    Article source sur le site de la NRK

    – Drapsroboter er bare ti til tjue år unna - Verden - NRK Nyheter
    http://www.nrk.no/nyheter/verden/1.11220317

    Han får støtte av Alexander Harang i Kampanjen for å stoppe drapsroboter (Campaign to Stop Killer Robots) CSKR.

    – Vi er ti til tjue år fra å se at drapsrobotene blir tatt i bruk på slagmarken, sier Harang.

    Både Mahler og Harang deltok denne uken på et seminar om drapsroboter på Fredsforskningsinstituttet (PRIO) i Oslo.

    #drones #robots_tueurs #guerre #guerres_sans_soldats

    cc @fil

    • @0gust1 : exactement ce qui m’est venu à l’esprit en lisant cet article. Toute intelligence artificielle dépassant un certain degré d’autonomie devrait obligatoirement voir implémenter les 3 lois à la racine de son programme - ce qui par essence interdirait tout usage militaire. On peut rêver...

    • Il est parfaitement contestable d’imaginer ne serait ce que quelques secondes qu’un ordinateur puisse disposer d’une représentation du monde, en gros d’une conscience, qui puisse le soumettre à quelque chose qui ressemblerait aux lois de la robotique d’Asimov.

      La chose est discutable, certes et j’en connais qui la discutent, mais il faut savoir qu’il existe un point de vue très fort, basé sur l’expérience de la programmation des ordinateurs, et qui affirme avec un grande violence que la connerie des ordinateurs est irrémédiable, définitive, irréparable et absolue.

      Prenons les exemples cités :
      1) l’ordinateur devra avoir une procédure de décision fiable (évidemment) lui permettant d’éviter de (bêtement) suicider 4 personnes pour éviter une poupée gonflable ; et d’ailleurs c’est bien connu les conducteurs de métro sont spécialement entraînés pour faire face à ce type de situation.
      2) Les ordres reçus par un sergent de la légion étrangère en opération, dans la mesure où il sont précisément exprimés, peuvent s’assimiler à un programme (une suite d’instructions).
      On peut faire confiance au sergent en question, alors qu’il dispose d’armes chargées, de faire preuve en toutes circonstance de la plus grande clairvoyance quand à leur utilisation, qu’il obéisse aux ordres, ou pas.

      Franchement je n’ai jamais compris ce fantasme du robot qui deviendrait humain : tout nous montre que c’est l’inverse qui est à l’oeuvre. Gunter Anders, avec le concept de « honte prométhéenne » a décrit le véritable problème avec les robots, et qui est que ce sont les hommes qui sont en train de devenir aussi cons qu’eux !

      http://www.europhilosophie-editions.eu/fr/spip.php?article23

    • Avant même de se poser la question de l’autonomie (future) des #drones_tueurs, on pourrait commencer par celle des conditions de l’utilisation actuelle de ceux téléguidés...

      Ainsi va la vie aujourd’hui au Pakistan, en Afghanistian , au Yémen ,en Somalie et peut-être plus récemment dans le nord du Niger [et du Mali]. Dans les seules zones tribales pakistanaises frontalières de l’Afghanistan, plus de 3 500 personnes ont été tuées dans les attaques de drones depuis une decennie.
      La plupart d’entre eux étaient des militants musulmans (sic), dont certains étaient sur ​​la liste des terroristes établie par la CIA, mais plusieurs centaines d’autres étaient des civils innocents qui se trouvaient au mauvais endroit au mauvais moment.

      #sale_guerre