« Lorsque des machines répondront à des algorithmes secrets, personne ne pourra prédire l’issue d’un conflit »

/noel-sharkey-lorsque-des-machines-repon

  • Noel Sharkey : « Lorsque des machines répondront à des algorithmes secrets, personne ne pourra prédire l’issue d’un conflit »

    http://www.lemonde.fr/sciences/article/2015/08/03/noel-sharkey-lorsque-des-machines-repondront-a-des-algorithmes-secrets-perso

    Noel Sharkey, professeur émérite d’intelligence artificielle et de robotique de l’université britannique de Sheffield, est président de l’International Committee for Robot Arms Control (ICRAC). Il répond à nos questions dans le cadre des commémorations de la première bombe nucléaire ayant explosé sur la ville d’Hiroshima, le 6 août 1945.

    Le 16 juillet 1945, à l’issue du premier essai nucléaire grandeur nature, dit « Trinity », au Nouveau-Mexique, le physicien américain Kenneth Bainbridge, responsable du tir, a déclaré à Robert Oppenheimer, patron du projet « Manhattan » : « Maintenant nous sommes tous des fils de putes » (« Now we are all sons of bitches »). Dans votre discipline, avez-vous le sentiment que ce moment où les chercheurs pourraient avoir la même révélation a été atteint ?

    Il existe une inquiétude considérable, et grandissante, autour de l’automatisation totale. Ce moment précis où toute activité ou travail humain sera réalisé par des machines. Pour ce faire, celles-ci n’ont d’ailleurs pas besoin de devenir super-intelligentes, comme certains le suggèrent.

    Nous sommes à un moment-clé où nous assistons à une convergence de différentes technologies : le big data, le « machine learning », la vitesse de calcul, la robotique et l’Internet. Et nous semblons nous diriger inexorablement vers ce point imaginaire. Un certain nombre de livres et rapports récents analysent minutieusement les pertes d’emplois actuelles et le possible chômage de masse dans un avenir pas si lointain. La vraie question est de savoir quel niveau de contrôle nous, humains, sommes prêts à céder aux machines.

    La plus grande préoccupation de cette dernière décennie est la direction prise afin de donner aux machines le pouvoir de décider de tuer en temps de guerre. Les robots tueurs ou les systèmes d’armes autonomes sont conçus pour rechercher et trouver des cibles, puis les attaquer avec violence, sans que soit nécessaire une quelconque surveillance humaine. Ces robots ne sont pas des humanoïdes à l’image du personnage de science-fiction Terminator, mais de plus traditionnels tanks, sous-marins, avions de chasse et hélicoptères de combat. La finalité à atteindre est l’automatisation totale pour pouvoir tuer en temps de guerre, du moins pour ceux qui possèdent cette technologie. C’est peut-être la plus grave menace sur la sécurité mondiale qui fait de nous tous des « fils de putes ».

    3- Quel pourrait être l’impact d’un « Hiroshima » dans votre discipline ?

    L’automatisation totale de la guerre apporte tant de problèmes à l’humanité qu’on pourrait la considérer comme quelque chose de pire qu’Hiroshima, en pensant simplement au fait que ces systèmes d’armes autonomes peuvent être équipés d’armes nucléaires.
    Il suffirait qu’une nation décide d’atteindre ce point d’automatisation pour que d’autres suivent rapidement, entraînant une prolifération massive et une nouvelle course aux armements. L’utilisation d’armes autonomes facilite l’entrée dans un conflit et pourrait facilement créer des conflits accidentels qu’aucun humain ne pourrait arrêter. Certaines nations ont déjà discuté ensemble de l’utilisation d’essaims de robots tueurs afin de multiplier la force déployée.

    L’un des impacts les plus dangereux de cette automatisation est la rapidité d’action de plus en plus forte qu’elle procure. Les conseillers militaires disent déjà que la guerre est en train de devenir trop rapide pour que les humains réagissent ou prennent des décisions. Ces pourparlers actuels ouvrent la voie à une automatisation complète en laissant de côté un point important : lorsque des essaims de machines répondront à des algorithmes secrets, personne ne pourra prédire l’issue d’un conflit et l’impact sur le monde civil.

    4- Après 1945, les physiciens, notamment Einstein, ont engagé une réflexion éthique sur leurs propres travaux. Votre discipline a-t-elle fait de même ?

    On sent grandir, chez les roboticiens et chercheurs en intelligence artificielle, une volonté d’examiner les problèmes éthiques qui peuvent découler d’une utilisation de leurs travaux.

    Les grandes organisations professionnelles prennent conscience des problèmes potentiels futurs liés aux systèmes d’armes autonomes. Certaines consultent et sondent leurs membres. La protestation grandit.

    5- Pensez-vous qu’il soit nécessaire que le public prenne conscience des enjeux liés à vos travaux ?

    Cette prise de conscience est nécessaire. D’ailleurs, elle a déjà commencé. Nous sommes plusieurs à avoir écrit pour des publications nationales (magazines, journaux), à avoir donné des interviews... Cette campagne de sensibilisation pour arrêter les robots tueurs rencontre un intérêt croissant de la part du public. Les citoyens ont un pouvoir et ils doivent l’utiliser pour arrêter ces développements moralement odieux.

    7- Pensez-vous à des mesures précises pour prévenir de nouveaux Hiroshima ?

    Oui. Je fais partie de la direction d’une grande campagne internationale pour arrêter les robots tueurs. Elle rassemble 54 organisations non gouvernementales de 26 pays ainsi qu’un certain nombre de Prix Nobel de la paix. Nous venons de travailler à l’Organisation des Nations unies pendant deux années et demie afin d’obtenir un nouvel outil juridique contraignant et international. Ceci pour interdire le développement, les essais et la production de systèmes d’armes autonomes. La France nous a apporté une aide très utile, les progrès sont là mais il reste encore un long chemin à parcourir.

    Cependant, il est difficile de penser à la manière d’éviter l’automatisation complète qui rendra superflu le travail humain. C’est quelque chose à envisager ensemble. La question concerne le degré et les limites du pouvoir que nous voulons céder aux machines, sans perdre les formidables avantages qu’apporte la technologie.

    Article protégé = Lecture Zen + Imprimer la page + Ouvrir le PDF dans Aperçu ….