person:elon musk

  • How an A.I. ‘Cat-and-Mouse Game’ Generates Believable Fake Photos - The New York Times
    https://www.nytimes.com/interactive/2018/01/02/technology/ai-generated-photos.html

    At a lab in Finland, a small team of Nvidia researchers recently built a system that can analyze thousands of (real) celebrity snapshots, recognize common patterns, and create new images that look much the same — but are still a little different. The system can also generate realistic images of horses, buses, bicycles, plants and many other common objects.

    The project is part of a vast and varied effort to build technology that can automatically generate convincing images — or alter existing images in equally convincing ways. The hope is that this technology can significantly accelerate and improve the creation of computer interfaces, games, movies and other media, eventually allowing software to create realistic imagery in moments rather than the hours — if not days — it can now take human developers.

    In recent years, thanks to a breed of algorithm that can learn tasks by analyzing vast amounts of data, companies like Google and Facebook have built systems that can recognize faces and common objects with an accuracy that rivals the human eye. Now, these and other companies, alongside many of the world’s top academic A.I. labs, are using similar methods to both recognize and create.

    As it built a system that generates new celebrity faces, the Nvidia team went a step further in an effort to make them far more believable. It set up two neural networks — one that generated the images and another that tried to determine whether those images were real or fake. These are called generative adversarial networks, or GANs. In essence, one system does its best to fool the other — and the other does its best not to be fooled.

    “The computer learns to generate these images by playing a cat-and-mouse game against itself,” said Mr. Lehtinen.

    A second team of Nvidia researchers recently built a system that can automatically alter a street photo taken on a summer’s day so that it looks like a snowy winter scene. Researchers at the University of California, Berkeley, have designed another that learns to convert horses into zebras and Monets into Van Goghs. DeepMind, a London-based A.I. lab owned by Google, is exploring technology that can generate its own videos. And Adobe is fashioning similar machine learning techniques with an eye toward pushing them into products like Photoshop, its popular image design tool.

    Trained designers and engineers have long used technology like Photoshop and other programs to build realistic images from scratch. This is what movie effects houses do. But it is becoming easier for machines to learn how to generate these images on their own, said Durk Kingma, a researcher at OpenAI, the artificial intelligence lab founded by Tesla chief executive Elon Musk and others, who specializes in this kind of machine learning.

    “We now have a model that can generate faces that are more diverse and in some ways more realistic than what we could program by hand,” he said, referring to Nvidia’s work in Finland.

    But new concerns come with the power to create this kind of imagery.

    With so much attention on fake media these days, we could soon face an even wider range of fabricated images than we do today.

    “The concern is that these techniques will rise to the point where it becomes very difficult to discern truth from falsity,” said Tim Hwang, who previously oversaw A.I. policy at Google and is now director of the Ethics and Governance of Artificial Intelligence Fund, an effort to fund ethical A.I. research. “You might believe that accelerates problems we already have.”

    But many of us still put a certain amount of trust in photos and videos that we don’t necessarily put in text or word of mouth. Mr. Hwang believes the technology will evolve into a kind of A.I. arms race pitting those trying to deceive against those trying to identify the deception.

    Mr. Lehtinen downplays the effect his research will have on the spread of misinformation online. But he does say that, as a time goes on, we may have to rethink the very nature of imagery. “We are approaching some fundamental questions,” he said.

    #Image #Fake_news #Post_truth #Intelligence_artificielle #AI_war #Désinformation

  • We can’t ban killer robots – it’s already too late | Philip Ball | Opinion | The Guardian
    https://www.theguardian.com/commentisfree/2017/aug/22/killer-robots-international-arms-traders

    One response to the call by experts in robotics and artificial intelligence for an ban on “killer robots” (“lethal autonomous weapons systems” or Laws in the language of international treaties) is to say: shouldn’t you have thought about that sooner?

    Figures such as Tesla’s CEO, Elon Musk, are among the 116 specialists calling for the ban. “We do not have long to act,” they say. “Once this Pandora’s box is opened, it will be hard to close.” But such systems are arguably already here, such as the “unmanned combat air vehicle” Taranis developed by BAE and others, or the autonomous SGR-A1 sentry gun made by Samsung and deployed along the South Korean border. Autonomous tanks are in the works, while human control of lethal drones is becoming just a matter of degree.
    Elon Musk leads 116 experts calling for outright ban of killer robots
    Read more

    #robot_tueurs #drones

  • The ’creepy Facebook AI’ story that captivated the media - BBC News
    http://www.bbc.com/news/technology-40790258

    Where did the story come from?

    Way back in June, Facebook published a blog post about interesting research on chatbot programs - which have short, text-based conversations with humans or other bots. The story was covered by New Scientist and others at the time.

    Facebook had been experimenting with bots that negotiated with each other over the ownership of virtual items.

    It was an effort to understand how linguistics played a role in the way such discussions played out for negotiating parties, and crucially the bots were programmed to experiment with language in order to see how that affected their dominance in the discussion.

    A few days later, some coverage picked up on the fact that in a few cases the exchanges had become - at first glance - nonsensical:

    Bob: “I can can I I everything else”
    Alice: “Balls have zero to me to me to me to me to me to me to me to me to”

    Although some reports insinuate that the bots had at this point invented a new language in order to elude their human masters, a better explanation is that the neural networks were simply trying to modify human language for the purposes of more successful interactions - whether their approach worked or not was another matter.

    As technology news site Gizmodo said: “In their attempts to learn from each other, the bots thus began chatting back and forth in a derived shorthand - but while it might look creepy, that’s all it was.”

    AIs that rework English as we know it in order to better compute a task are not new.

    Google reported that its translation software had done this during development. “The network must be encoding something about the semantics of the sentence” Google said in a blog.

    And earlier this year, Wired reported on a researcher at OpenAI who is working on a system in which AIs invent their own language, improving their ability to process information quickly and therefore tackle difficult problems more effectively.

    The story seems to have had a second wind in recent days, perhaps because of a verbal scrap over the potential dangers of AI between Facebook chief executive Mark Zuckerberg and technology entrepreneur Elon Musk.

    Robo-fear

    But the way the story has been reported says more about cultural fears and representations of machines than it does about the facts of this particular case.

    Plus, let’s face it, robots just make for great villains on the big screen.

    In the real world, though, AI is a huge area of research at the moment and the systems currently being designed and tested are increasingly complicated.

  • Mark Facebook contre le “catastrophisme irresponsable”
    http://www.dedefensa.org/article/mark-facebook-contre-le-catastrophisme-irresponsable

    Mark Facebook contre le “catastrophisme irresponsable”

    Ils se connaissent bien, ils sont de la même génération des petits génies devenus grands, mais ils ne sont pas d’accord du tout. On parle d’une part de Elon Musk qui parlait de l’IA il y a onze jours pour avertir son auditoire que l’on tenait peut-être là la formule de l’anéantissement de l’espèce humaine et qu’il serait urgent de réglementer son développement ; et d’autre part de Mark Zuckerberg, l’homme de Facebook et l’imprécateur qui dénonce tous ceux qui se risquent à improviser des fausses notes dans les lendemains qui chantent façon-Silicon Valley.

    Zuckerberg a répondu à Musk. Il croit que l’AI est formidable et qu’“on n’arrête pas le Progrès” qui va nous rendre la vie si formidable à tous égard. Les progrès produits par le Progrès abondent pour nous (...)

  • Will This “Neural Lace” Brain Implant Help Us Compete with AI? - Facts So Romantic
    http://nautil.us/blog/with-this-neural-lace-brain-implant-we-can-stay-as-smart-as-ai

    Solar-powered self-driving cars, reusable space ships, Hyperloop transportation, a mission to colonize Mars: Elon Musk is hell-bent on turning these once-far-fetched fantasies into reality. But none of these technologies has made him as leery as artificial intelligence. Earlier this summer at Code Conference 2016, Musk stated publicly that given the current rate of A.I. advancement, humans could ultimately expect to be left behind—cognitively, intellectually—“by a lot.” His solution to this unappealing fate is a novel brain-computer interface similar to the implantable “neural lace” described by the Scottish novelist Iain M. Banks in Look to Windward, part of his “Culture series” books. Along with serving as a rite of passage, it upgrades the human brain to be more competitive against A.I.’s (...)

  • Here’s How the New Teslas Stack Up Against Bugatti, Lamborghini, and Ferrari - Bloomberg
    http://www.bloomberg.com/news/articles/2016-08-24/here-s-how-the-new-teslas-stack-up-against-bugatti-lamborghini-and-ferrar

    On Tuesday, Tesla announced new versions of its luxury cars that break major barriers for electric vehicles. But are the upgrades, as Chief Executive Officer Elon Musk claims, enough to hand Tesla the title of fastest car in the world? 
    The P100D Model S with Ludicrous mode will propel the car to 60 miles per hour in just 2.5 seconds. Tesla’s Model X sport utility vehicle will get there in 2.9 seconds. The bigger, 100-kilowatt-hour batteries also provide the first official U.S. Environmental Protection Agency range of more than 300 miles on a charge. 
    These speeds are crazy fast, matched only by sold-out supercars with tiny production runs: Ferrari’s $1.4 million LaFerrari, Porsche’s $845,000 918 Spyder, and Bugatti’s $2.3 million Veyron Grand Sport Vitesse. Tesla’s new Model S, at $134,500, is just as quick as any vehicle on the road. Even its seven-seat SUV beats the McLaren 675LT.

  • Aristotle at the Gigafactory: Why Physics Is a Philosophy - Facts So Romantic
    http://nautil.us/blog/aristotle-at-the-gigafactory-why-physics-is-a-philosophy

    On Friday, in Storey County, Nevada, a woman at Tesla’s Gigafactory inauguration hollered, “Beam me up, Elon!” Elon Musk, the electric car company’s chief executive officer, had just taken the stage along with J.B. Straubel, Tesla’s chief technical officer. “Okay, we’re working on that one,” Musk gamely replied before saying: “Alright—welcome everyone to the Gigafactory launch party! I hope you’re having a good time.” They were. The party’s attendees were almost exclusively Tesla devotees. “To be there in person,” according to Recode, “you would have to be a Tesla owner who referred five other buyers or just be a very important person of some sort.” Musk didn’t disappoint them. After being coached to “smile a lot” and to remember that “everything is awesome,” Musk and Straubel regaled everyone with a (...)

  • Joshua Brown, Who Died in Self-Driving Accident, Tested Limits of His Tesla - The New York Times
    http://www.nytimes.com/2016/07/02/business/joshua-brown-technology-enthusiast-tested-the-limits-of-his-tesla.html

    Joshua Brown loved his all-electric #Tesla Model S so much he nicknamed it Tessy.

    And he celebrated the #Autopilot feature that made it possible for him to cruise the highways, making YouTube videos of himself driving hands-free. In the first nine months he owned it, Mr. Brown put more than 45,000 miles on the car.
    […]
    Mr. Brown’s most recent video was his most popular. Titled “Autopilot Saves Model S,” it shows Mr. Brown driving on an interstate highway from Cleveland to Canton. A white truck cuts in front of Mr. Brown’s vehicle, and by his account, the Tesla’s Autopilot feature swerves the car to the right, avoiding a collision.

    After Elon Musk, Tesla’s founder, called attention to the video on Twitter, it went viral.

    Mr. Brown seemed to be elated.

    He had said, ‘For something to catch Elon Musk’s eye, I can die and go to heaven now,’” said a neighbor, Krista Kitchen, choking up. “He was absolutely thrilled – and then a couple weeks later he died.

    Et le NYT, outre la reproduction du tweet d’Iron Man himself, donne le lien de cette vidéo…
    https://www.youtube.com/watch?v=ifpBWxTKhLU

  • SpaceX Launches Satellites, Narrowly Misses Rocket Landing at Sea
    #rapid_unscheduled_disassembly

    http://www.space.com/33172-spacex-misses-rocket-landing-after-satellite-launch.html

    SpaceX successfully launched two satellites to orbit today (June 15) but couldn’t quite pull off its fourth consecutive rocket landing at sea in the process.

    The first stage of the California-based company’s Falcon 9 rocket Falcon 9 rocket managed to hit its target — a robotic “droneship” stationed in the Atlantic Ocean, a few hundred miles off the Florida coast — but wasn’t able to stick the landing.

    Ascent phase & satellites look good, but booster rocket had a RUD on droneship,” SpaceX founder and CEO Elon Musk said via Twitter during the liftoff. ("RUD" is #Muskspeak for “rapid unscheduled disassembly.”)

    • SpaceX Just Stuck a Historic Landing. So What Now? | WIRED
      http://www.wired.com/2016/04/spacex-just-stuck-historic-landing-now

      TODAY IN SPACE history, a rocket went to space. No big. But then it came back down and landed on a drone barge in the middle of the ocean.

      The rocket was a Falcon 9, built by SpaceX, Elon Musk‘s commercial spaceflight company. On its own, the retropropulsion landing is a major technological accomplishment. But it means even more as a step toward reliably getting humans off of Earth—maybe even permanently. “In order for us to really open up access to space,” Musk said in a press conference shortly after the landing, “we need to achieve full and rapid reusability.

      That’s because space is expensive. A single Falcon 9 costs about $60 million. According to Musk, each Falcon 9 could theoretically be reused for 10 to 20 missions. Filling a Falcon 9 with rocket fuel only costs $200,000 to $300,000, so even counting refurbishments between missions, that means a hundredfold drop in marginal cost per launch.

      But reusable rockets don’t come easy—this was the company’s sixth attempt at an aquatic landing. At its peak, the Falcon 9 booster was traveling around 6,000 miles per hour, carrying 120 tons of payload. “That’s quite a javelin throw,” said Musk. Plus, at the top of its trajectory, the rocket is aimed horizontally in relation to the Earth’s surface. While dropping, it has to rotate so its engines are facing down. Then it passes through strong upper atmospheric winds.
      […]
      What’s the plan with the rocket now that it’s landed? “We’re a little bit like the dog who caught the bus,” says Musk. “What do we do now?” But long-term, of course SpaceX knows the plan: actually try to reuse the thing.

  • Elon Musk’s Billion-Dollar AI Plan Is About Far More Than Saving the World
    http://www.wired.com/2015/12/elon-musks-billion-dollar-ai-plan-is-about-far-more-than-saving-the-world

    Elon Musk and Sam Altman worry that artificial intelligence will take over the world. So, the two entrepreneurs are creating a billion-dollar not-for-profit company that will maximize the power of AI—and then share it with anyone who wants it.

    At least, this is the message that Musk, the founder of electric car company Tesla Motors, and Altman, the president of startup incubator Y Combinator, delivered in announcing their new endeavor, an unprecedented outfit called OpenAI. In an interview with Steven Levy of Backchannel, timed to the company’s launch, Altman said they expect this decades-long project to surpass human intelligence. But they believe that any risks will be mitigated because the technology will be “usable by everyone instead of usable by, say, just Google.”

    #Elon_Musk #Google #Intelligence_artificielle #Open_source #OpenAI #Sam_Altman #Tesla_Motors #Y_Combinator

  • <nettime> Human at the Wheel - Jordan Crandall
    https://www.mail-archive.com/nettime-l@mail.kein.org/msg03678.html

    A flurry of videos made by Tesla drivers has appeared on YouTube, demonstrating the car’s new Autopilot features. We see the road through the POV of the (male) driver-author, who narrates the scene in voiceover — interpreting what the software is doing. Each clip culminates in a “close call,” with the implication that the software is to blame ("Tesla Autopilot tried to kill me!" reads one headline). In nearly every video, the driver is misusing the technology — a possibility the company had not apparently considered. Aghast at the behavior of these drivers, Elon Musk announced that new constraints will be added to the software “to minimize the possibility of people doing crazy things with it.”

    #autopilote #voiture_autopilotée #mésusage #robotisation

  • Des robots tueurs, des armes autonomes sans foi ni loi

    http://www.lemonde.fr/societe/article/2015/09/24/robots-tueurs-sans-foi-ni-loi_4770350_3224.html

    On l’appelle SGR-A1. De jour comme de nuit, sur un rayon de 4 kilomètres, ce robot militaire décèle, grâce à son logiciel de «  tracking  », les mouvements d’un intrus. Mis en marche à distance, cet automate pour poste-frontière tire de lui-même, de façon indépendante, sur toute personne ou véhicule qui s’approche. Conçu par Samsung, il est équipé d’une mitrailleuse, d’un lance-grenades, de capteurs de chaleur, de caméras de détection infrarouge et d’une intelligence électronique. En septembre 2014, la Corée du Sud a installé plusieurs de ces engins le long de la zone démilitarisée qui la sépare de la Corée du Nord, afin d’éviter d’envoyer des soldats dans des endroits isolés.

    C’est peu dire qu’une telle arme, «  intelligente   » et autonome, inquiète. Depuis 2012, elle est ­régulièrement dénoncée par une coalition de 51 organisations non gouvernementales (ONG) coordonnée par Human Rights Watch, dans le ­cadre de la campagne internationale «  Stop Killer Robots   » («  Arrêtez les robots tueurs   »). Le mouvement de protestation a été relancé à grand bruit, le 28 juillet, grâce à une lettre ouverte signée par près de 3  000 personnalités, dont des chercheurs en robotique, des scientifiques comme le physicien Stephen Hawking et des figures de l’industrie high-tech, comme Elon Musk, PDG de Tesla Motors, ou Steve Wozniak, cofondateur d’Apple. Pour eux, un tel robot militaire, et tous ceux qui risquent de suivre du fait des avancées rapides de l’intelligence artificielle, soulève de graves questions éthiques et juridiques qui remettent en cause le droit de la guerre.

    Droit moral

    (…) Or, lerobot sentinelle SGR-A1 est incapable de faire ces choix : il tire automatiquement sur tout ce qui bouge. Ce faisant, il risque à tout ​moment de violer deux principes du droit international humanitaire
    (DIH) qui régit les conflits armés depuis les conventions de Genève de 1949 et leurs protocoles additionnels : d’une part, la règle cardinale de la « distinction » entre les civils et les militaires ; ensuite, la nécessité d’éviter des violences « disproportionnées » par rapport aux menaces, et donc de procéder à une évaluation.

    L’autre problème soulevé par l’usage des robots tueurs est celui de la responsabilité pénale. Si l’un d’entre eux commettait un dommage collatéral ou abattait des civils, contre qui les victimes et leurs familles pourraient-elles se retourner ? ​Human Rights Watch pointe le « vide juridique » qui entoure ces armes nouvelles. Rien n’est prévu dans le droit international humanitaire.

    Pour discuter des dangers de ces systèmes d’armes létaux autonomes (SALA, la traduction française de lethal autonomous weapons systems), une réunion multilatérale mobilisant des représentants de 87 pays, ainsi que des délégués de la coalition d’ONG Stop Killer Robots, s’est tenue en mai 2014 aux Nations unies, à Genève, dans le cadre de la convention sur les armes classiques. Les ONG espèrent arriver à un accord pour l’interdiction de telles armes, comme cela fut le cas, en 2008, pour les armes à sous-munitions. Car, à écouter les spécialistes de la robotique qui les dénoncent, les SALA ont de quoi faire peur.

    « Létalité comparable à celle des armes nucléaires »

    Le 27 mai, dans la revue Nature, une tribune de l’Américain Stuart Russell, spécialiste de l’intelligence artificielle (IA), professeur d’informatique à l’université de Californie, prévenait que ces armes allaient être améliorées et développées « dans les années à venir » – c’est-à-dire très vite. Contacté par Le Monde, ce chercheur décrit l’extrême sophistication atteinte par « la combinaison des composants robotiques et de l’IA ». Equipé d’outils de navigation, de logiciels de « prise de ​- décision tactique » et de « planification à long terme », mais également doté d’un programme d’apprentissage, un véhicule inhabité trouve aujourd’hui seul son chemin dans un ​environnement difficile. Une fois militarisé, il pourra mener « des missions urbaines de recherche et d’élimination de cibles ». Stuart Russell ​assure qu’aux Etats-Unis, deux programmes de la Defense Advanced Research Projects Agency (Darpa), qui dépend du ministère de la défense, portent sur des hélicoptères miniatures capables de s’orienter seuls dans des immeubles où toute information est brouillée. Selon lui, l’armement de ces robots, qui pourraient diminuer jusqu’à n’être pas plus gros que des insectes – ce qui rappelle les agents arachnoïdes du film ​Minority Report (2002), de Steven Spielberg –, est déjà expérimenté en secret.

    Dans un rapport présenté à l’ONU en avril, M. Russell soutient qu’il faut s’attendre à voir apparaître d’ici vingt ans des essaims de giravions miniatures, équipés de cerveaux décisionnels et dotés de munitions capables de perforer les yeux ou de projeter des ondes ​hypersoniques mortelles. Ces armes pourraient posséder, dit-il, « une létalité comparable à celle des armes nucléaires » face à laquelle les humains « seront sans défense ». Dans leur lettre ouverte de juillet, les scientifiques avancent que le saut technologique, mais aussi éthique, franchi par l’usage présent et futur de SALA peut être comparé à l’invention de la « poudre à canon » et à celle des « armes nucléaires », et parlent d’une grave « perte d’humanité ». Ils soulignent que de telles armes, « intelligentes » mais sans aucune disposition morale, « sont idéales pour des tâches telles qu’assassiner, déstabiliser les nations, soumettre les populations et tuer un groupe ethnique particulier ». Ils ​- redoutent que « des dictateurs » les utilisent comme forces de l’ordre, ou que des « seigneurs de guerre » s’en servent pour « perpétrer un nettoyage ethnique ».

    Marché noir

    Ils expliquent enfin que ces robots ne sont pas coûteux à fabriquer, ne nécessitent aucune matière première rare, et qu’ils risquent ​d’apparaître rapidement « sur le marché noir ». Passant « aux mains de terroristes », ils deviendraient les « kalachnikovs de demain ». Autant de fortes raisons pour demander un moratoire international sur leur construction, en vue d’établir, comme le dit l’Américain Peter Asaro, philosophe s’intéressant à l’éthique des machines, « une norme interdisant toute délégation de tuer à une machine » et conservant « le choix de cibler et de tirer sous contrôle humain ».

    La campagne « Stop Killer Robots » est très critiquée, tant aux Etats-Unis qu’en Europe, par de nombreux spécialistes militaires, des ingénieurs de l’armement et des théoriciens de l’éthique des armes. En février 2013, le juriste américain Michael Schmitt, professeur de droit international à l’US Naval War College, a tenu à répondre sur le fond à Human Rights Watch dans le National Security Journal, de la faculté de droit de Harvard. Il estime que les opposants aux SALA jouent sur les mots en s’en prenant à l’« autonomie » des machines, alors que de nombreuses armes opération​nelles utilisent déjà des technologies intelli​gentes : certains missiles sol-air, surnommés « Fire-and-Forget
     » (« tire et oublie »), vont chercher seuls un objectif désigné, conduits par des outils de détection. Le canon antimissiles-antinavires Phalanx tire directement sur ses cibles grâce à un calculateur de position. Quant au système antiroquettes automatisé d’Israël, Iron Dome, utilisé en juillet 2014 durant l’opération Bordure protectrice, il est équipé d’un ordinateur de gestion de bataille.

    Si ces armes, explique Michael Schmitt, peuvent tirer de façon « automatique » sur une ​cible, elles n’en sont pas pour autant « auto​nomes ». L’homme « reste toujours dans la boucle de commandement », même s’il est très éloigné du terrain, et peut toujours décider d’arrêter à distance la mitrailleuse automatique, de reprogrammer le missile en vol ou le drone – autrement dit, il conserve l’acte moral de suspendre la décision de tuer. A ce jour, souligne Michael Schmitt, il n’existe pas encore de robots totalement indépendants. Il préfère s’en tenir à la définition avancée par le Defense Science Board américain (une instance de ​conseil du ministère de la défense), qui considère « les armes autonomes comme faisant partie d’un système homme-machine ».

    Nécessité stratégique

    En France, la spécialiste de l’éthique des machines Catherine Tessier, maître de conférences à l’Office national d’études et de recherches aérospatiales, avance dans l’ouvrage collectif Drones et « killer robots ». Faut-il les interdire ? (Presses universitaires de Rennes, 268 pages, 18 euros) que les anti-SALAconfondent les « automatismes embarqués », comme le pilotage et le guidage, avec l’autonomie. Pour elle, il ne faut pas oublier ce pour quoi a été « programmé » le robot, comment l’homme « partage les décisions » de la machine, interprète les évaluations de ses logiciels et peut l’arrêter. De son côté, la capitaine Océane Zubeldia, de l’Institut de recherche stratégique de l’Ecole militaire, rappelle que la robotisation, qui s’est ​accélérée avec l’essor extraordinaire des technologies de l’information et de la communication et des réseaux satellitaires, répond à une nécessité stratégique pour les armées.

    Depuis la première guerre du Golfe, en 1991, la guerre moderne est devenue, nous dit-elle, une « guerre cybernétique », une « guerre de l’information » utilisant des « systèmes d’armes intégrés » et des « véhicules inhabités » comme les drones. A cet aspect stratégique s’ajoute un ​objectif humanitaire et éthique : il faut « diminuer les risques de perdre les équipages » et « les éloigner de la zone des conflits ». « Le prix de la vie humaine, souligne-t-elle, n’a cessé de prendre de l’importance, et si la prise de risques reste une valeur essentielle du militaire, le “gaspillage” des vies n’est plus toléré, ni par la société ni par les autorités. »

    Epargner les soldats

    Une grande partie des arguments éthiques en faveur de la robotisation des armes découle de cet impératif humain : elle permet d’épargner les soldats – enfin, les soldats amis. Il est vrai qu’un robot ne peut être tué, blessé ou pris en otage. Il ne souffre pas des intempéries, ignore la fatigue et la peur, effectue sans état d’âme des missions-suicides. Il peut être envoyé dans des zones contaminées, minées, ou dans des sanctuaires ennemis et terroristes. Ce robot-soldat n’est pas affecté par la ​colère, la vengeance. Il ne viole pas, ne torture pas. Souvent, son tir est plus précis que celui d’un soldat. Océane Zubeldia pense qu’il peut jouer un rôle dissuasif, à la manière d’un ​- golem contemporain.

    Sur la question de la responsabilité en cas de crime de guerre, Didier Danet, du Centre de recherche des écoles de Saint-Cyr Coëtquidan (ministère de la défense), observe qu’un robot ne saurait être considéré comme une « personne morale » au sens de l’article 1134 du code civil : un sujet doué de volonté, se donnant à lui-même ses propres objectifs, compatibles avec le respect des lois existantes. Selon lui, aucun robot militaire ne répond à ces critères – et aucun sans doute n’y répondra jamais. La machine, nous dit-il, se contente d’une « autonomie fonctionnelle » limitée : son activité, l’« autorisation » de son action dépendent des opérateurs humains. Elle reste un objet de droit, non un sujet. D’ailleurs, écrit-il dans l’introduction de Drones et « killer robots », en termes juridiques le soldat reste responsable de l’usage qu’il fait de son arme. Si un robot commet un dommage collatéral, le commandement devra en répondre : c’est sur lui que le droit international humanitaire continue de s’exercer.

    Voilà pourquoi, analyse Didier Danet, il vaudrait mieux que l’ONU n’interdise pas les ​armes létales autonomes. Cela risquerait de compliquer encore le droit de la guerre, mais aussi de paralyser la recherche en robotique permettant d’éloigner les soldats des zones de conflit.

    Luttes éthiques

    De toute façon, l’histoire des armements et de leurs usages montre que les luttes éthiques pour interdire des armes jugées irrecevables aboutissent rarement, mais aussi que le jugement porté sur elles évolue. Alain Crémieux, ancien ingénieur général de l’armement, auteur de L’Ethique des armes (Aegeus, 2006), rappelle qu’en 1139 déjà, lors du IIe concile de Latran, l’usage de l’arbalète avait été interdit entre chrétiens. Il paraissait « moralement inacceptable » que les « piétons » des armées, des gens du peuple, puissent abattre des chevaliers à distance. Pourtant, l’arbalète a été conservée. Elle a été remplacée, au début du XVIe siècle, par l’arquebuse, elle aussi rejetée par les moralistes pour sa létalité, puis par le mousquet, l’ancêtre du fusil à silex, lui-même adopté en France sous le règne de Louis XIV. Or, fait remarquer Crémieux, depuis, rares sont ceux qui remettent en cause les armes à feu légères : « Elles ont même été tellement identifiées à la guerre nationale et à la guerre populaire qu’il paraît inutile de chercher à les décrier. Le pouvoir et la liberté elle-même ne peuvent-ils pas être “au bout du fusil” ? »

    L’historien François Cochet, spécialiste de la mémoire des guerres, met en lumière la contradiction permanente entre le « sentiment d’horreur » que soulèvent certaines armes et le « cynisme » politique et militaire qui l’accompagne. Il donne un exemple fameux : en 1899, la conférence de la paix de La Haye, à laquelle participent 26 gouvernements, décide d’interdire « de lancer des projectiles et des explosifs du haut des ballons ou par d’autres modes analogues ». Une mort venue d’en haut, hors de portée, parfois hors de vue, semblait alors insupportable. « Ces exigences, constate François ​Cochet, n’ont pas arrêté les bombardements ​aériens pour autant ! Les Etats ont signé les protocoles, sans toujours les ratifier, en se préparant cyniquement à l’étape suivante, l’aviation militaire, que les Européens ont testée dans leurs colonies. » L’historien relève un autre exemple de cynisme : « Après 14-18, l’Allemagne a demandé l’interdiction des gaz asphyxiants, qu’elle avait beaucoup utilisés dans les tranchées, parce qu’elle savait que les autres pays en disposaient. »

    L’interdiction, un combat perdu ?

    Alors, interdire une arme effroyable, un combat perdu d’avance ? Les ONG et les scientifiques qui s’opposent aux robots tueurs refusent de céder au cynisme du laisser-faire. Ils rappellent que plusieurs batailles éthiques récentes ont mené à l’interdiction par l’ONU et par le droit international humanitaire des ​armes chimiques (1993), des armes à laser aveuglantes (1995) et des mines antipersonnel (1997). Bonnie Docherty, membre d’Human ​Rights Watch et enseignante à la Harvard Law School, a publié le 4 septembre un mémoire où elle répond aux arguments de ceux qui justifient les SALA en affirmant que les militaires resteront responsables – et devront rendre des comptes en cas de crime de guerre. Elle montre que, au contraire, ils pourront toujours se retrancher derrière une faute du robot, arguant que les communications avec lui ont été rompues, qu’il a agi trop vite, que les spécialistes étaient absents ou qu’un logiciel a dysfonctionné. Les victimes, elles, auront le plus grand mal à ​demander réparation, car la responsabilité personnelle, base du droit, se trouvera diluée dans des dispositifs techniques.

    Faudra-t-il alors, demande la juriste, se ​retourner contre les fabricants des armes ? La Direction générale de l’armement ? Ou contre les politiques qui ont validé l’usage des SALA ? Pour Human Rights Watch, de telles démarches juridiques rencontreront des obstacles ​insurmontables : elles n’aboutiront pas. Cette impunité leur semble très grave. Elle rendra très difficile de « dissuader » les militaires et les forces de l’ordre d’utiliser des robots létaux. Nous entrerions alors dans une époque plus inhumaine.

  • Actualité > #Robots tueurs : Hawking, Musk et Tegmark contre Terminator
    http://www.futura-sciences.com/magazines/high-tech/infos/actu/d/robotique-robots-tueurs-hawking-musk-tegmark-terminator-59181

    De plus en plus de voix s’élèvent pour mettre en garde contre les dangers de l’intelligence artificielle. Les dernières en date ne sont rien de moins que celles d’Elon Musk, Stephen Hawking et Steve Wozniak qui, avec l’aide de l’institut Future of Life, fondé par Max Tegmark, appellent à une interdiction des robots militaires autonomes. Plus de 2.000 experts en IA se joignent à eux avec une lettre ouverte.

    #skynet

  • Stephen Hawking et Elon Musk réclament l’interdiction des « #robots_tueurs »
    http://www.lemonde.fr/pixels/article/2015/07/27/intelligence-artificielle-hawking-musk-et-chomsky-reclament-l-interdiction-d

    C’est une nouvelle charge portée contre les dangers potentiels de l’#intelligence_artificielle (#IA). Dans une lettre ouverte publiée lundi 27 juillet, plus d’un millier de personnalités, dont une majorité de chercheurs en IA et en robotique, ont réclamé l’interdiction des #armes_autonomes, capables « de sélectionner et de combattre des cibles sans intervention humaine ».

    Parmi les signataires, on retrouve Elon Musk, le célèbre PDG du constructeur de voitures électriques Tesla et de SpaceX, et l’astrophysicien britannique Stephen Hawking, qui avaient déjà fait part publiquement de leurs inquiétudes concernant l’IA. Mais aussi le cofondateur d’Apple Steve Wozniak, le linguiste américain Noam Chomsky ou encore Demis Hassabis, le fondateur de DeepMind, une entreprise consacrée à l’intelligence artificielle rachetée par Google.

    Leur crainte : que les Etats se lancent dans « une course à l’#armement », justifiée par le fait que « remplacer des hommes par des machines permet de limiter le nombre de victimes du côté de celui qui les possède ». Pour eux, « la question clé de l’humanité, aujourd’hui, est de savoir s’il faut démarrer une course à l’armement doté d’IA ou l’empêcher de commencer ».

    #armes #armement

  • La nouvelle batterie de Tesla peut-elle transformer “l’infrastructure énergétique” ? - Le Monde
    http://alireailleurs.tumblr.com/post/118101691365

    Jérôme Marin pour le Monde revient sur l’annonce par Elon Musk, le PDG de Tesla Motors d’une nouvelle gamme de batteries destinées aux habitations, Tesla Energy. Des batteries pour stocker l’énergie de maisons ou d’entreprises équipées en panneaux solaires ou permettant d’être rechargées durant les heures creuses pour être utilisées en heures pleines. Pour Musk, il y a là matière à révolutionner notre infrastructure énérgétique en résolvant le problème du stockage de l’énergie que pointait le prospectiviste Jeremy Rifkin dans son livre, la troisième révolution industrielle. 

    #énergie

  • Une batterie pour « se passer des réseaux électriques »
    http://www.lemonde.fr/planete/article/2015/05/01/une-nouvelle-batterie-permettant-de-se-passer-des-reseaux-electriques_462602

    Le fabricant de véhicules électriques Tesla a dévoilé, jeudi 30 avril, une « batterie pour #domicile » destinée, selon son fondateur Elon Musk, à changer « la totalité de l’infrastructure énergétique dans le monde ».

    Cette batterie, baptisée Tesla « Powerwall », peut stocker l’#électricité fournie par des panneaux solaires ou par le réseau électrique au moment où celui-ci fournit de l’électricité bon marché, notamment pendant les heures de nuit, a précisé la société. La batterie peut également servir en cas de coupure de courant.

    La #batterie rechargeable lithium-ion, destinée à être fixée sur le mur d’une maison ou dans un garage, pourrait rendre les habitations équipées de panneaux photovoltaïques totalement indépendantes des réseaux électriques traditionnels.

    #publireportage

  • Dominer le monde ? (SVP, cliquer Accepter)
    http://www.zeroseconde.com/2015/02/dominer-le-monde-svp-cliquer-accepter

    Fait à noter, la crainte que l’intelligence artificielle (IA) puisse poser un sérieux risque pour « l’existence de l’humanité » n’est plus induite par des films hollywoodiens, mais par des avancées technologiques bien réelles. Bill Gates, Elon Musk et Stephen Hawking, que l’on ne peut considérer comme des luddites, l’ont exprimé récemment. Mais c’était en des termes peu spécifiques. Les […]

    #Emergence #Robotique #Monde_déplié

    • La force asymétrique permet à quelques un de s’insérer dans l’arrière-plan du décor. Les transactions à haute fréquence ne manipulent pas les ficelles de la bourse. Dans l’infiniment rapide, ces algorithmes ont tout simplement le temps de prendre la meilleure décision (statistique).

      Avec Watson, ou la promesse de l’intelligence artificielle, quelques privilégiés accèderont à l’arrière-plan du décor du monde pour comprendre mieux –ou plus vite– la réalité qu’eux seuls perçoivent dans les grandes lignes.

      Les gens qui auront accès aux connaissances du monde déplié, en garderont-ils les clés que pour eux ?

      Google y est. Facebook y est. IBM s’en vient. Dans tous les cas, nous les aidons à aller dans cette direction.

      Je m’inquiète surtout pour l’instant que certains puissent plutôt en profiter pour changer le cours de la partie à leur seul avantage.

      Je vois deux métaphores pour résumer mon point.

      C’est comme si, en 1491, certains avaient accès à une carte du continent.

      Ou, c’est comme posséder des HoloLens au royaume des aveugles.

  • Will Humans Be Able to Control Computers That Are Smarter Than Us? - Facts So Romantic
    http://nautil.us/blog/will-humans-be-able-to-control-computers-that-are-smarter-than-us

    The ominous eye of HAL in 2001: A Space OdysseyIf humans go on to create artificial intelligence, will it present a significant danger to us? Several technical luminaries have been open and clear with respect to this possibility: Elon Musk, the founder of SpaceX, has equated it to “summoning the demon”; Stephen Hawking warns it “could spell the end of the human race”; and Bill Gates agrees with Musk, placing himself in this “concerned” camp.Their worry is that once the AI is switched on and gradually assumes more and more responsibility in running our brave, newfangled world—all the while improving upon its own initial design—what’s to stop it from realizing that human existence is an inefficiency or perhaps even an annoyance? Perhaps the AI would want to get rid of us if, as Musk has (...)

  • Un entrepreneur à l’assaut de la planète Mars
    http://www.internetactu.net/2014/10/09/un-entrepreneur-a-lassaut-de-la-planete-mars

    Coloniser Mars en un siècle ? Elon Musk, qui défend ce point de vue dans une interview pour la revue Aeon, pourrait bien passer pour un doux rêveur s’il n’était pas, eh bien s’il n’était pas Elon Musk, l’un des entrepreneurs les plus célèbres de ce siècle commençant. Co-fondateur de Paypal, créateur de Tesla Motors, la fameuse société de voitures…

    #futur #imaginaire #prospective #Science-fiction #Silicon_Valley #transport

  • Tous nos #brevets vous appartiennent - Tesla Motors
    http://alireailleurs.tumblr.com/post/88950532518

    Elon Musk, le PDG de Tesla Motors, le constructeur de voitures électriques, a décidé “d’ouvrir” les brevets de son véhicule en libre accès, explique-t-il sur son blog. "Si une entreprise dépend de ses brevets, c’est qu’elle n’innove pas ou alors qu’elle n’innove pas assez rapidement", se justifie Elon Musk. Pour lui, les brevets sont nuisibles à l’innovation.

    "Tesla Motors a été créé pour accélérer l’avènement du transport durable. Si nous voulons construire un chemin pour la création de véhicules électriques, mais que nous posons des mines de propriété intellectuelle pour inhiber les autres, nous agissons d’une manière contraire à notre objectif. Tesla n’intentera pas de poursuites judiciaires envers toute personne qui, de bonne fois, veut utiliser notre technologie."

    Bloquer les compétiteurs est le meilleur (...)

    #open_source #open_innovation #innovation

  • Du brevet comme arme de guerre au don comme acte de paix
    http://scinfolex.com/2014/06/14/du-brevet-comme-arme-de-guerre-au-don-comme-acte-de-paix

    Cette semaine, Elon Musk, le PDG de la compagnie Tesla Motors spécialisée dans la construction de voitures électriques, a fait sensation en publiant un billet « All Our Patent Belong To You », annonçant que sa société renonçait à exercer des poursuites à l’encontre de ceux qui utiliseraient ses technologies. Dans son billet, Musk explique vouloir appliquer la philosophie de l’Open Source au domaine des brevets, pour stimuler l’innovation dans le secteur des voitures électriques et favoriser ainsi leur développement au niveau mondial : Source : : : S.I.Lex : :