Seenthis
•
 
Identifiants personnels
  • [mot de passe oublié ?]

 
  • #r
  • #ro
  • #robo
  • #robot
  • #robots
RSS: #robots_tueurs

#robots_tueurs

  • @odilon
    odilon @odilon CC BY-NC-ND 2/06/2021
    1
    @02myseenthis01
    1

    Pour la première fois, des drones auraient attaqué des humains de leur propre initiative
    ▻https://www.courrierinternational.com/article/guerre-pour-la-premiere-fois-des-drones-auraient-attaque-des-

    D’après un rapport des Nations unies publié en mars dernier, des #attaques de #drones sans aucune intervention humaine ont été recensées en #Libye. On ne sait pas s’il y a eu des victimes, mais cet événement prouverait que les tentatives de réguler les #robots_tueurs ont déjà un train de retard.

    #défaillance_technique

    odilon @odilon CC BY-NC-ND
    • @sombre
      Sombre @sombre CC BY-NC-SA 3/06/2021

      #machine_learning

      Sombre @sombre CC BY-NC-SA
    • @grommeleur
      grommeleur @grommeleur 3/06/2021

      Attention néanmoins, l’expression propre initiative est peut-être mal choisie, ces drones étaient programmés pour attaquer sans ordre explicite humain, ils n’ont pas soudain décidé de changer leur doctrine.

      ▻https://undocs.org/en/S/2021/229

      Logistics convoys and retreating HAF were subsequently hunted down and
      remotely engaged by the unmanned combat aerial vehicles or the lethal autonomous
      weapons systems such as the STM Kargu-2 (see annex 30) and other loitering munitions.
      The lethal autonomous weapons systems were programmed to attack targets without
      requiring data connectivity between the operator and the munition: in effect, a true “fire,
      forget and find” capability.

      grommeleur @grommeleur
    • @odilon
      odilon @odilon CC BY-NC-ND 3/06/2021
      @grommeleur

      oui tu as raison @grommeleur

      odilon @odilon CC BY-NC-ND
    Écrire un commentaire
  • @kassem
    Kassem @kassem CC BY-NC-SA 28/09/2018
    1
    @02myseenthis01
    1

    ’Killer robots’ ban blocked by US and Russia at UN meeting | The Independent
    ▻https://www.independent.co.uk/life-style/gadgets-and-tech/news/killer-robots-un-meeting-autonomous-weapons-systems-campaigners-disma

    https://static.independent.co.uk/s3fs-public/thumbnails/image/2018/09/03/17/gettyimages-167261136.jpg

    The group of advanced military powers, which also included South Korea, Israel and Australia, blocked progress towards a new international treaty to ban fully autonomous weapons systems following a week of talks in Geneva involving the United Nations.

    A majority of states had proposed to begin negotiations on a new treaty to prevent the development and use of fully autonomous weapons – tanks, planes, ships and guns – which can act without any human oversight.

    Due to the consensus decision-making process employed by the United Nation’s Convention on Certain Conventional Weapons (CCW), however, no such resolution was agreed and states simply pledged to continue to explore “options” for future work” on Saturday.

    #robots_tueurs

    Kassem @kassem CC BY-NC-SA
    Écrire un commentaire
  • @hlc
    Articles repérés par Hervé Le Crosnier @hlc CC BY 12/04/2018
    3
    @fil
    @scarbo__
    @reka
    3

    A Peace Movement Blooms at Google | Alternet
    ▻https://www.alternet.org/peace-movement-blooms-google

    https://www.alternet.org/sites/default/files/story_images/shutterstock_192086165-edited.jpg

    Three-thousand Google employees have signed a letter protesting the internet giant’s contract with the Defense Department to develop artificial intelligence in order to analyze imagery collected by drones.

    The employees are calling on Google CEO Sundar Pichai to cancel the project immediately and to “enforce a clear policy stating that neither Google nor its contractors will ever build warfare technology.”

    Google is collaborating with the Pentagton’s Project Maven, which was established in April 2017 “to deploy computer algorithms to war zones by year’s end, “according to one Defense Department press release. The focus of the project is “38 classes of objects that represent the kinds of things the department needs to detect, especially in the fight against the Islamic State of Iraq and Syria.”
    Report Advertisement

    The protest is a signal moment in the global campaign against lethal autonomous weapons, otherwise known as killer robots. The increasingly plausible of specter of warfare in which machines automatically target and kill people without human control has given rise to an international movement to ban such weapons. The Google antiwar letter shows the movement has arrived in Silicon Valley.

    Since 2014, the nations that have signed the Convention on Certain Conventional Weapons (CCW) have convened biannual conferences of experts to study the issue. Academics, policymakers and activists have found widespread agreement on the importance of controlling autonomous weapons, yet failed to reach consensus on how to do it.

    #Google #Guerre #Warfare #Techno_manifestation

    • #Google
    • #artificial intelligence
    Articles repérés par Hervé Le Crosnier @hlc CC BY
    • @fil
      Fil @fil 13/04/2018

      #robots_tueurs #AI

      Fil @fil
    Écrire un commentaire
  • @albertocampiphoto
    albertocampiphoto @albertocampiphoto CC BY-NC-SA 31/05/2016
    3
    @reka
    @biggrizzly
    @cdb_77
    3
    @cdb_77 @reka

    Turkey starts building automatic shooting gun towers at Syrian border

    Is it true?

    ▻http://www.yenisafak.com/en/news/turkey-starts-building-automatic-shooting-gun-towers-at-syrian-border-247

    http://yenisafak.feo.doracdn.com/resize/47uQufiZbmsgHk3H/400/0/resim/imagecrop/2016/05/30/03/07/resized_817b3-b7a1d710border.jpg

    #Syrie #border #gun_tower #frontière #Turquie @cdb_77 @reka

    albertocampiphoto @albertocampiphoto CC BY-NC-SA
    • @reka
      Reka @reka CC BY-NC-SA 31/05/2016

      robots_tueurs peut-être #it_has_begun

      Reka @reka CC BY-NC-SA
    • @cdb_77
      CDB_77 @cdb_77 31/05/2016

      #militarisation_des_frontières #frontières #robots_tueurs

      CDB_77 @cdb_77
    Écrire un commentaire
  • @kassem
    Kassem @kassem CC BY-NC-SA 12/05/2016
    4
    @baroug
    @fil
    @gastlag
    @tonyfortin
    4

    Pentagon Turns to #Silicon_Valley for Edge in Artificial Intelligence
    ▻http://www.nytimes.com/2016/05/12/technology/artificial-intelligence-as-the-pentagons-latest-weapon.html

    On Wednesday, Secretary of Defense Ashton B. Carter made his fourth trip to the tech industry’s heartland since being named to his post last year. Before that, it had been 20 years since a defense secretary had visited the area, he noted in a speech at a Defense Department research facility near Google’s headquarters.

    #Pentagone #IA

    Kassem @kassem CC BY-NC-SA
    • @fil
      Fil @fil 13/05/2016

      #silicon_army

      Fil @fil
    • @fil
      Fil @fil 13/05/2016

      The Pentagon is building a ‘self-aware’ killer robot army fueled by social media — INSURGE intelligence — Medium
      ▻https://medium.com/insurge-intelligence/the-pentagon-is-building-a-self-aware-killer-robot-army-fueled-by-social-med

      Official US defence and NATO documents confirm that autonomous weapon systems will kill targets, including civilians, based on tweets, blogs and Instagram

      #robots_tueurs

      Fil @fil
    • @simplicissimus
      Simplicissimus @simplicissimus 13/05/2016
      @fil

      Le document référencé dans le commentaire de @fil
      Human Systems Roadmap Review
      ▻http://www.defenseinnovationmarketplace.mil/resources/NDIA_Human_Systems_Conference_2016_HSCOI_DistroA_FINAL

      #PowerPoint_pas_Mort !

      Simplicissimus @simplicissimus
    • @kassem
      Kassem @kassem CC BY-NC-SA 13/05/2016

      #signature_strike

      Kassem @kassem CC BY-NC-SA
    • @fil
      Fil @fil 7/10/2016

      un point de vue post-humain et très pro-américain mais défendant l’interdiction des #robots_tueurs (pas compris la logique)
      ▻http://singularityhub.com/2016/10/06/now-is-the-time-to-ban-terminator-like-robots

      Fil @fil
    Écrire un commentaire
  • @supergeante
    Supergéante @supergeante 29/04/2016
    1
    @fil
    1

    Deadly Algorithms
    Can legal codes hold software accountable for code that kills?
    ▻https://www.radicalphilosophy.com/commentary/deadly-algorithms

    Supergéante @supergeante
    • @fil
      Fil @fil 29/04/2016

      #robots_tueurs #algorithmes #asimov

      Fil @fil
    Écrire un commentaire
  • @kassem
    Kassem @kassem CC BY-NC-SA 24/03/2016
    10
    @fil
    @lyco
    @loloster
    @reka
    @unagi
    @7h36
    @bce_106_6
    @thibnton
    @biggrizzly
    @touti
    10

    A peine lancée, une #intelligence_artificielle de Microsoft dérape sur #Twitter
    ▻http://www.lemonde.fr/pixels/article/2016/03/24/a-peine-lancee-une-intelligence-artificielle-de-microsoft-derape-sur-twitter

    Ce « #chatbot » (#robot_conversationnel), lancé mercredi 23 mars, « vise les Américains de 18 à 24 ans », explique Microsoft sur le site qui lui est consacré. C’est pourquoi ce programme, qui a pris les traits d’une adolescente, n’est pas avare en emojis, abréviations, smileys, mèmes et autres gifs.

    « Malheureusement, dans les premières 24 heures de sa présence en ligne, nous avons constaté un effort coordonné de quelques utilisateurs d’abuser des capacités de Tay afin de la pousser à répondre de façon inappropriée », a expliqué #Microsoft dans un communiqué transmis au Monde. « Par conséquent, nous avons décidé de mettre Tay hors ligne et d’effectuer des ajustements », conclut l’entreprise sans donner plus de précision.

    Microsoft is deleting its AI chatbot’s incredibly racist tweets
    ►http://www.businessinsider.com/microsoft-deletes-racist-genocidal-tweets-from-ai-chatbot-tay-2016-

    The aim was to “experiment with and conduct research on conversational understanding,” with Tay able to learn from “her” conversations and get progressively “smarter.”

    #algorithme

    • #Microsoft
    Kassem @kassem CC BY-NC-SA
    • @enuncombatdouteux
      enuncombatdouteux @enuncombatdouteux CC BY-NC-ND 24/03/2016

      http://s2.lemde.fr/image/2016/03/24/534x0/4889660_6_60f1_2016-03-24-97393c4-9329-4mpfka_94207f34d5ba28531da5cc5f1a40b8bd.png

      enuncombatdouteux @enuncombatdouteux CC BY-NC-ND
    • @fil
      Fil @fil 24/03/2016

      et c’est ça qu’on va recruter comme #robots_tueurs ?

      Fil @fil
    • @bce_106_6
      bce_106_6 @bce_106_6 25/03/2016

      #Inintelligence_artificielle

      Tuer des humains, les machines le font trés bien. Voir la rubrique accident du travail, accident de la route . . .

      bce_106_6 @bce_106_6
    • @thibnton
      tbn @thibnton PUBLIC DOMAIN 25/03/2016

      L’alliance des robots et des #trolls

      tbn @thibnton PUBLIC DOMAIN
    • @touti
      vide @touti 25/03/2016

      #bavure_informatique
      #psychopate_collatéral

      vide @touti
    • @bce_106_6
      bce_106_6 @bce_106_6 25/03/2016

      tay, un robot qui visait les Américains de 18 à 24 ans
      Tay, utilisatrice de Twitter, à envoyé 96 000 messages en 8 heures, voilà qui pose question, d’ailleurs aucun utilisateur normal de Twitter n’est capable d’une telle prouesse… du moins chez les humains. Que s’est donc-t-il passé ?

      Tay est en fait un « chatbot » (robot de conversation) développée par Microsoft, capable de participer à des conversations sur des réseaux sociaux et des applications de messagerie comme Twitter, Snapchat, Kik ou encore GroupMe raconte Le Monde.

      Ce robot conversationnel, lancé mercredi 23 mars, « vise les Américains de 18 à 24 ans », explique Microsoft sur le site qui lui est consacré.

      Un robot qui à peine mis en service à annoncé tout simplement sur son compte qu’il allait se taire le temps sans doute pour les ingénieurs de trouver une solution à sa logorrhée de tweets...

      Tay Tweets est donc vite devenue « Tay toi ».
      Source : ►http://www.rtbf.be/info/insolites/detail_le-robot-qui-tweet-envoie-96-000-messages-en-8-heures?id=9252066
      #propagande #Twitter #goebels

      bce_106_6 @bce_106_6
    Écrire un commentaire
  • @fil
    Fil @fil 17/03/2016
    1
    @02myseenthis01
    1

    Ian Kerr, Canada Research Chair in Ethics, Law and Technology at the University of Ottawa, on the implications of human-robot relationships

    ▻http://www.cbc.ca/player/play/2685221555

    #unpredictability #anthropomorphism #manipulation #armement #robots_tueurs #voitures_autopilotées

    the million-dollar question: how to keep meaningful human control on robots

    Ian Kerr : ▻http://iankerr.ca

    Fil @fil
    Écrire un commentaire
  • @fil
    Fil @fil 17/02/2016
    8
    @nidal
    @simplicissimus
    @baroug
    @reka
    @kassem
    @7h36
    @supergeante
    @unagi
    8

    The NSA’s SKYNET program may be killing thousands of innocent people | Ars Technica UK
    ►http://arstechnica.co.uk/security/2016/02/the-nsas-skynet-program-may-be-killing-thousands-of-innocent-people

    “Ridiculously optimistic” machine learning algorithm is “completely bullshit,” says expert.

    In 2014, the former director of both the CIA and NSA proclaimed that “we kill people based on metadata.” Now, a new examination of previously published Snowden documents suggests that many of those people may have been innocent.

    http://cdn.arstechnica.net/wp-content/uploads/sites/3/2016/02/skynet-courier-detection-via-machine-learning-p3-normal-640x495.gif

    (...) The highest scoring selector who travelled to Peshawar and Lahore is “PROB AHMED ZAIDAN”, Al-Jazeera’s long-time bureau chief in Islamabad.
    As The Intercept reported, Zaidan frequently travels to regions with known terrorist activity in order to interview insurgents and report the news. But rather than questioning the machine learning that produced such a bizarre result, the NSA engineers behind the algorithm instead trumpeted Zaidan as an example of a SKYNET success in their in-house presentation, including a slide that labelled Zaidan as a “MEMBER OF AL-QA’IDA.”

    http://cdn.arstechnica.net/wp-content/uploads/sites/3/2016/02/skynet-courier-detection-via-machine-learning-p17-normal-640x495.gif

    #machine_learning #stupidité_artificielle #drones #robots_tueurs

    • #Ars Technica UK
    • #NSA
    Fil @fil
    • @kassem
      Kassem @kassem CC BY-NC-SA 23/02/2016

      #métadonnées #algorithme #crimes #victimes_civiles #impunité #Etats-Unis

      Kassem @kassem CC BY-NC-SA
    Écrire un commentaire
  • @odilon
    odilon @odilon CC BY-NC-ND 18/01/2016
    2
    @fil
    @baroug
    2
    @philippe_de_jonckheere

    Atlas Cleans House - YouTube
    ▻https://www.youtube.com/watch?v=r0qWVKcJR3w

    Nous l’attendions toutes et tous –enfin surtout toutes et @philippe_de_jonckheere– :)
    Atlas, le robot de ménage
    et comme le dit la boite verte, #sans_se_casser_la_gueule

    odilon @odilon CC BY-NC-ND
    • @simplicissimus
      Simplicissimus @simplicissimus 18/01/2016

      Mouais…

      Atlas est développé par #Boston_Dynamics (dans l’empire Google) pour la #DARPA

      Simplicissimus @simplicissimus
    • @philippe_de_jonckheere
      Philippe De Jonckheere @philippe_de_jonckheere CC BY 18/01/2016
      @odilon

      @odilon, la musique est nulle, quand je fais le méange, je te pris croire que j’écoute du Coltrane sinon rien.

      Philippe De Jonckheere @philippe_de_jonckheere CC BY
    • @odilon
      odilon @odilon CC BY-NC-ND 18/01/2016
      @philippe_de_jonckheere

      hi hi @philippe_de_jonckheere, s’il n’y avait que la musique de nulle dans cette vidéo :)

      odilon @odilon CC BY-NC-ND
    • @fil
      Fil @fil 18/01/2016

      #robots_tueurs #tik-tok

      Fil @fil
    • @tintin
      gwyneth bison @tintin 18/01/2016

      #manche

      gwyneth bison @tintin
    Écrire un commentaire
  • @rezo
    Rezo @rezo 18/11/2015
    6
    @fil
    @reka
    @baroug
    @la_taupe
    @solitudemaisdishuits
    @7h36
    6

    ONU : vers une accélération des décisions contre les robots tueurs
    ▻http://www.obsarm.org/spip.php?article258

    Plusieurs systèmes robotisés, avec des degrés variés d’autonomie et de létalité sont actuellement utilisés par des armées avec des capacités de haute technologie, y compris la Chine, la Corée du Sud, les États-Unis, Israël et le Royaume-Uni. Sans nouvelles contraintes, cette tendance résultera dans l’existence de systèmes d’armes qui donneront toute l’autonomie aux machines. Source : Observatoire des armements

    Rezo @rezo
    • @fil
      Fil @fil 18/11/2015

      #armements #robotisation #robots_tueurs

      Fil @fil
    Écrire un commentaire
  • @reka
    Reka @reka CC BY-NC-SA 21/10/2015
    1
    @odilon
    1

    Campaign to Stop Killer Robots warns UN of threat ’a few years away’ | Technology | The Guardian

    ▻http://www.theguardian.com/technology/2015/oct/20/campaign-to-stop-killer-robots-warning-united-nations

    https://i.guim.co.uk/img/media/e4bdc9f98e8df0567847ccd5e3c29b93c5f7c9af/0_286_1845_1106/master/1845.jpg?w=1200&q=85&auto=format&sharp=10&s=6ee8d29ff00b98a86b2b19acc6c682ad

    Experts in artificial intelligence, lawyers and activists organized by the Campaign to Stop Killer Robots gathered at the United Nations on Tuesday to warn against a growing reliance on cheap drones and “stupid AI” that can be unpredictable in the real world.

    “Terminator always comes up,” Toby Walsh, a professor of artificial intelligence at the University of New South Wales, told reporters on Tuesday, referring to the sci-fi cyborg on a mission to wipe out mankind. “But it’s not really Terminator that we’re worried about at the moment. I think that Terminator is perhaps 50 or so years away.”

    #drones #robots_tueurs

    Reka @reka CC BY-NC-SA
    Écrire un commentaire
  • @odilon
    odilon @odilon CC BY-NC-ND 27/07/2015
    3
    @fil
    @02myseenthis01
    @thibnton
    3

    Stephen Hawking et Elon Musk réclament l’interdiction des « #robots_tueurs »
    ▻http://www.lemonde.fr/pixels/article/2015/07/27/intelligence-artificielle-hawking-musk-et-chomsky-reclament-l-interdiction-d

    C’est une nouvelle charge portée contre les dangers potentiels de l’#intelligence_artificielle (#IA). Dans une lettre ouverte publiée lundi 27 juillet, plus d’un millier de personnalités, dont une majorité de chercheurs en IA et en robotique, ont réclamé l’interdiction des #armes_autonomes, capables « de sélectionner et de combattre des cibles sans intervention humaine ».

    Parmi les signataires, on retrouve Elon Musk, le célèbre PDG du constructeur de voitures électriques Tesla et de SpaceX, et l’astrophysicien britannique Stephen Hawking, qui avaient déjà fait part publiquement de leurs inquiétudes concernant l’IA. Mais aussi le cofondateur d’Apple Steve Wozniak, le linguiste américain Noam Chomsky ou encore Demis Hassabis, le fondateur de DeepMind, une entreprise consacrée à l’intelligence artificielle rachetée par Google.

    Leur crainte : que les Etats se lancent dans « une course à l’#armement », justifiée par le fait que « remplacer des hommes par des machines permet de limiter le nombre de victimes du côté de celui qui les possède ». Pour eux, « la question clé de l’humanité, aujourd’hui, est de savoir s’il faut démarrer une course à l’armement doté d’IA ou l’empêcher de commencer ».

    #armes #armement

    odilon @odilon CC BY-NC-ND
    Écrire un commentaire
  • @fil
    Fil @fil 22/11/2013
    5
    @baroug
    @simplicissimus
    @ari
    @fadixu
    5

    #Robotisation de la #guerre (1re partie) : des #drones aux #robots_tueurs - L’observatoire des armements
    ▻http://www.obsarm.org/spip.php?article218

    L’usage de drones dans les conflits soulève des problèmes politiques, juridiques, éthiques et de sécurité internationale. L’émergence des « robots tueurs », de par leur caractère autonome, aggrave la situation, notamment en termes de droit de vie ou de mort et de responsabilité juridique.

    (PDF dispo sur demande auprès de l’obsarm)

    • #L'observatoire
    Fil @fil
    • @fil
      Fil @fil 10/03/2014

      Controverse sur le sujet (vue par Singularity Hub)
      ▻http://singularityhub.com/2014/03/09/controversy-brews-over-role-of-killer-robots-in-theater-of-war

      Fil @fil
    Écrire un commentaire
  • @kassem
    Kassem @kassem CC BY-NC-SA 16/11/2013
    3
    @biggrizzly
    @reka
    @fil
    3

    ONU : De nombreux pays conviennent d’aborder le problème des « #robots_tueurs » | Human Rights Watch
    ▻http://www.hrw.org/fr/news/2013/11/15/onu-de-nombreux-pays-conviennent-d-aborder-le-probleme-des-robots-tueurs

    (Genève, le 15 novembre 2013) – Un accord, conclu le 15 novembre 2013, pour ouvrir des pourparlers internationaux sur les armes robotiques entièrement autonomes constitue le début d’un processus qui devrait s’achever par la signature d’un traité interdisant ce type d’armement, a déclaré Human Rights Watch aujourd’hui. Les représentants des gouvernements ayant participé à une réunion annuelle sur certaines armes classiques à Genève ont accepté d’entamer en mai 2014 des pourparlers internationaux sur ces armes, qui seraient capables de sélectionner et d’attaquer des cibles sans intervention humaine.

    (...)

    Les États-Unis sont le seul pays à avoir adopté officiellement une politique à cet égard. Le Département de la Défense a émis le 21 novembre 2012 une directive qui, pour l’instant, exige qu’un être humain soit « au courant » lorsque les décisions sont prises sur l’utilisation de la force meurtrière, à moins que des responsables du ministère ne dérogent à cette directive à un niveau élevé.

    La directive de politique américaine, bien que positive, n’est pas une solution exhaustive ni permanente aux problèmes potentiels posés par des systèmes entièrement autonomes, a déclaré Human Rights Watch. La politique de retenue qu’elle adopte peut également être difficile à maintenir si d’autres pays commencent à déployer des systèmes d’armes entièrement autonomes.

    • #Département de la Défense
    • #Human Rights Watch
    Kassem @kassem CC BY-NC-SA
    • @reka
      Reka @reka CC BY-NC-SA 16/11/2013

      #robots_tueurs

      Reka @reka CC BY-NC-SA
    Écrire un commentaire
  • @fil
    Fil @fil 17/10/2013
    5
    @reka
    @odilon
    @ari
    @thibnton
    @kamo
    5

    Scientists call for a ban | Campaign to Stop Killer #Robots
    ▻http://www.stopkillerrobots.org/2013/10/scientists-call

    The International Committee for Robot Arms Control (ICRAC), a founder of the Campaign to Stop Killer Robots, has issued a statement endorsed by more than 270 engineers, computing and artificial intelligence experts, roboticists, and professionals from related disciplines that calls for a ban on fully autonomous weapons. In the statement, 272 experts from 37 countries say that, “given the limitations and unknown future risks of autonomous robot weapons technology, we call for a prohibition on their development and deployment. Decisions about the application of violent force must not be delegated to #machines.”

    The signatories question the notion that robot weapons could meet legal requirements for the use of force: “given the absence of clear scientific evidence that robot weapons have, or are likely to have in the foreseeable future, the functionality required for accurate target identification, situational awareness or decisions regarding the proportional use of force.” The experts ask how devices controlled by complex algorithms will interact, warning: “Such interactions could create unstable and unpredictable behavior, behavior that could initiate or escalate conflicts, or cause unjustifiable harm to civilian populations.”

    http://www.stopkillerrobots.org/wp-content/uploads/2013/10/ICRAC_April2013.jpg

    #armements #robots_tueurs #algorithmes #intelligence_artificielle #drones

    • #computing
    • #founder
    Fil @fil
    Écrire un commentaire
  • @reka
    Reka @reka CC BY-NC-SA 6/09/2013
    8
    @fil
    @severo
    @0gust1
    @touti
    @7h36
    @uston
    @kassem
    @02myseenthis01
    8
    @fil

    Nous sommes sans doute la dernière génération à vivre avant l’utilisation réelle des « robots tueurs » sur le terrain

    "Les opérateurs voient quatre hommes barbus (sic) avec des fusils sur l’épaule..."

    Alexander Harang du « Conseil pour la paix » est très actif dans la lutte contre les robots tueur. La grande photo représente le drone « Predator » lequel est équipé de missiles air-sol : c’est celui qui est utilisé au Pakistan.

    http://gfx.nrk.no/r0b7uwNHnkGNCjb0KABLggWnRhibgNu7JYAEdaLb8CKQ.jpg

    - D’ici dix à vingt ans, les « robots tueurs » seront utilisés sur les champs de bataille, dit Alexander Harang. Tobias Malher et Alexander Harang ont participé cette semaine à un séminaire sur les « robots tueurs » à l’institut PRIO à Oslo.

    « Robots militaires » : c’est le nom commun donnés aux armes qui non seulement peuvent tuer à distance - comme les drones d’aujourd’hui - mais aussi prendre la décision lui même de tuer – et de le faire !

    Trois types de Robots :

    Robots téléguidées : Ils sont armés (comme les drones aujourd’hui), mais ce sont des êtres humains qui analysent la situation et décide si l’arme doit être utilisée.

    Robots automatiques : L’ordinateur analyse la situation et les réponses possibles, mais ce sont toujours les êtres humains gens qui décident si l’arme doit être utilisée.

    Robot autonome : L’ordinateur analyse de la situation et les réponses possibles, et décide de lui même si l’arme doit être utilisée. (brrrr....)

    Le journaliste de la NRK décrit l’utilisation du drone de la manière suivante (c’est assez époustouflant) :

    Un drone survole une zone montagneuse au Pakistan et observe ce qui se passe au sol. Les caméras embarquées renvoient les images aux Etats-Unis où des opérateurs les analysent. Les opérateurs voient quatre hommes barbus (sic) avec des fusils sur l’épaule. Les opérateurs décident d’appuyer sur un bouton, une seconde plus tard un missile est tiré, les quatres hommes barbus (sic) sont morts instantanément.

    Ainsi va la vie aujourd’hui au Pakistan, en Afghanistian , au Yémen ,en Somalie et peut-être plus récemment dans le nord du Niger [et du Mali]. Dans les seules zones tribales pakistanaises frontalières de l’Afghanistan, plus de 3 500 personnes ont été tuées dans les attaques de drones depuis une decennie.

    La plupart d’entre eux étaient des militants musulmans (sic), dont certains étaient sur ​​la liste des terroristes établie par la CIA, mais plusieurs centaines d’autres étaient des civils innocents qui se trouvaient au mauvais endroit au mauvais moment.

    Mais dans quelques années, l’opérateur qui se trouve quelque part aux États-Unis sera sans doute superflu. L’image des quatre hommes armés sera envoyé directement au drone. Un ordinateur de bord permettra (au drone) d’analyser la situation à partir d’un ensemble de paramètres, lequel ordinateur prendra ensuite la décision de tuer ou de de laisser ces hommes en vie.

    On est en train de concevoir et programmer des ordinateurs selon le concept "thumbs down" [pouce en bas]. Avec une telle machine, les quatre hommes barbus (sic) sur le terrain seront alors tués sans qu’un être humain n’ait pris la décision de le faire « directement »

    http://gfx.nrk.no/ChdLHwwMBPJElYBkszprlgCw5gX-30Qmrm3CgJ8ohpyg.jpg

    Le drone britannique « Taranis » sera probablement en mesure de fonctionner sans contrôle humain direct. Photo : BAE Systems / AP

    Une campagne contre les « robots tueurs » a débuté à Londres en avril 2013, soutenue par 45 organisations non-gouvernementales dans 20 pays.

    Il existe en fait des versions plus avancées de drones armés – non utilisés, encore en développement – qui sont assimilés aux « robots tueurs ». Tobias Mahler souligne que ce n’est pas nécessairement des armes au sens traditionnel du terme. Pour illustrer son propos, il donne une image :

    Imaginez la porte d’entrée du bâtiment de la NSA aux Etats-Unis. Elle peut-être programmée pour reconnaître les gens à partir de l’analyse de leurs yeux. Cette porte automatique peut aussi être programmée pour claquer dans la gueule de celui qu’elle ne reconnaît pas et éventuellement le tuer ! C’est la programmation qui fait tout, mais le programmeur peut-il tout prévoir ?

    Les États-Unis et Israël sont les pays les plus en pointe dans le développement des « robots tueurs » mais la Russie et la Chine ont probablement des programmes avancés. Il y a de bonnes raisons de croire que l’heure de l’utilisation en réel des « robots tueurs » est beaucoup plus proche qu’on ne le croit.

    Tobias Malher souligne que les militaires développent les « robots tueurs » pour répondre à l’argument suivant :

    Développer des armes autonomes pour éviter au maximum de mettre nos troupes en danger [des guerres sans soldats].

    Et ces mêmes militaires [quand même] de se demander s’il est éthique de développer des armes qui décident toutes seules de tuer ou pas (sic) … !

    http://gfx.nrk.no/IvTFT8pQa_kCkxRtyZaduwO9TkOsx2Ox7Fi9oc3li3-Q.jpg

    L’avion sans pilote X -47B fabriqué par Northrup Grumman sur la base Edwards en Californie sera en mesure d’attaquer des armes sans contrôle humain. Photo : Alan Radecki , Northrup Grumman, marine / AP.

    Le journaliste de la NRK poursuit avec cet encadré :

    « Les robots doivent faire des choix éthiques »

    – Si les « robots tueurs » autonomes doivent être utilisés, ils doivent être programmés pour faire des choix éthiques.
    – C’est aussi des questions auxquelles sont confrontées les développeurs de voitures civiles « auto-conduites »

    – Par exemple, une voiture autonome (auto-conduite) circule avec quatre personnes à bord. Que fera-t-elle si un enfant traverse soudainement la chaussée juste devant elle alors qu’un camion arrive en sens inverse ?

    – Le véhicule devra choisir entre deux options :

    1. Tourner vivement pour éviter l’enfant et donc entrer en collision avec le camion venant en sens inverse, avec de possible graves conséquences pour les quatre personnes se trouvant dans la voiture.

    2. Continuer tout droit et percuter l’enfant, avec comme résultat probable la mort de celui-ci.

    En Norvège, la question des « robots tueurs » est totalement absente du débat politique (les élections parlementaires ont lieu l9 septembre 2013) alors que ce débat a bien eu lieu dans plusieurs autres pays européens. Ça n’a même pas été un enjeu de la campagne alors que la Norvège a un programme militaire de production d’armement (petit, mais qui existe quand même).

    En Allemagne, où l’on vote aussi mi-septembre, Die Linke a fait de la lutte contre les « robots tueurs » un de leurs principaux enjeux de la campagne.

    –----

    Article source sur le site de la NRK

    – Drapsroboter er bare ti til tjue år unna - Verden - NRK Nyheter
    ▻http://www.nrk.no/nyheter/verden/1.11220317

    Han får støtte av Alexander Harang i Kampanjen for å stoppe drapsroboter (Campaign to Stop Killer Robots) CSKR.

    – Vi er ti til tjue år fra å se at drapsrobotene blir tatt i bruk på slagmarken, sier Harang.

    Både Mahler og Harang deltok denne uken på et seminar om drapsroboter på Fredsforskningsinstituttet (PRIO) i Oslo.

    #drones #robots_tueurs #guerre #guerres_sans_soldats

    cc @fil

    • #Oslo
    • #Afghanistan
    • #Mali
    • #Niger
    • #Pakistan
    • #Somalie
    • #Yemen
    • #Central Intelligence Agency
    • #le nord du Niger
    Reka @reka CC BY-NC-SA
    • @0gust1
      0gust1 @0gust1 CC BY-NC 6/09/2013

      #asimov

      Pour les 3 lois de la robotique : ►http://fr.wikipedia.org/wiki/Trois_lois_de_la_robotique

      0gust1 @0gust1 CC BY-NC
    • @iyhel
      Iyhel @iyhel CC BY-NC-SA 6/09/2013
      @0gust1

      @0gust1 : exactement ce qui m’est venu à l’esprit en lisant cet article. Toute intelligence artificielle dépassant un certain degré d’autonomie devrait obligatoirement voir implémenter les 3 lois à la racine de son programme - ce qui par essence interdirait tout usage militaire. On peut rêver...

      Iyhel @iyhel CC BY-NC-SA
    • @wiki1000
      wiki1000 @wiki1000 6/09/2013

      Il est parfaitement contestable d’imaginer ne serait ce que quelques secondes qu’un ordinateur puisse disposer d’une représentation du monde, en gros d’une conscience, qui puisse le soumettre à quelque chose qui ressemblerait aux lois de la robotique d’Asimov.

      La chose est discutable, certes et j’en connais qui la discutent, mais il faut savoir qu’il existe un point de vue très fort, basé sur l’expérience de la programmation des ordinateurs, et qui affirme avec un grande violence que la connerie des ordinateurs est irrémédiable, définitive, irréparable et absolue.

      Prenons les exemples cités :
      1) l’ordinateur devra avoir une procédure de décision fiable (évidemment) lui permettant d’éviter de (bêtement) suicider 4 personnes pour éviter une poupée gonflable ; et d’ailleurs c’est bien connu les conducteurs de métro sont spécialement entraînés pour faire face à ce type de situation.
      2) Les ordres reçus par un sergent de la légion étrangère en opération, dans la mesure où il sont précisément exprimés, peuvent s’assimiler à un programme (une suite d’instructions).
      On peut faire confiance au sergent en question, alors qu’il dispose d’armes chargées, de faire preuve en toutes circonstance de la plus grande clairvoyance quand à leur utilisation, qu’il obéisse aux ordres, ou pas.

      Franchement je n’ai jamais compris ce fantasme du robot qui deviendrait humain : tout nous montre que c’est l’inverse qui est à l’oeuvre. Gunter Anders, avec le concept de « honte prométhéenne » a décrit le véritable problème avec les robots, et qui est que ce sont les hommes qui sont en train de devenir aussi cons qu’eux !

      ▻http://www.europhilosophie-editions.eu/fr/spip.php?article23

      wiki1000 @wiki1000
    • @cy_altern
      cy_altern @cy_altern CC BY-SA 30/06/2016

      Avant même de se poser la question de l’autonomie (future) des #drones_tueurs, on pourrait commencer par celle des conditions de l’utilisation actuelle de ceux téléguidés...

      Ainsi va la vie aujourd’hui au Pakistan, en Afghanistian , au Yémen ,en Somalie et peut-être plus récemment dans le nord du Niger [et du Mali]. Dans les seules zones tribales pakistanaises frontalières de l’Afghanistan, plus de 3 500 personnes ont été tuées dans les attaques de drones depuis une decennie.
      La plupart d’entre eux étaient des militants musulmans (sic), dont certains étaient sur ​​la liste des terroristes établie par la CIA, mais plusieurs centaines d’autres étaient des civils innocents qui se trouvaient au mauvais endroit au mauvais moment.

      #sale_guerre

      cy_altern @cy_altern CC BY-SA
    Écrire un commentaire

Thèmes liés

  • #drones
  • #intelligence_artificielle
  • technology: artificial intelligence
  • country: chine
  • #guerre
  • #algorithme
  • #twitter
  • #ia
  • #armement
  • #armements
  • organization: department of defense
  • #machine_learning
  • company: google
  • #asimov
  • #algorithmes
  • country: israël
  • country: états-unis
  • organization: central intelligence agency
  • organization: united nations