person:stephen hawking

  • Stephen Hawking et ses fortunés camarades projettent de visiter le système d’étoiles le plus proche, en un rien de temps

    http://www.gurumed.org/2016/04/13/stephen-hawking-et-ses-fortuns-camarades-projettent-de-visiter-le-systme-dt

    Le célèbre physicien Stephen Hawking, un riche millionnaire russe et le PDG de Facebook ont fait l’annonce qu’ils aimeraient envoyer une flotte de petits vaisseaux spatiaux vers le système d’étoiles le plus proches, en un temps record.

    Cependant, si la dernière idée de Stephen Hawking se concrétise, nous pourrions atteindre ce système stellaire voisin dans les 20 années après le lancement.

    Selon Stephen Hawking :

    La Terre est un endroit merveilleux, mais elle pourrait ne pas durer éternellement. Tôt ou tard, nous devrons nous tourner vers les étoiles. Breakthrough Starshot est une première étape très excitante dans ce périple.

    Le programme « Breakthrough Starshot », de 100 millions de dollars, qui a également le soutien de l’entrepreneur Yuri Milner et du PDG de Facebook, Mark Zuckerberg, étudiera comment un petit engin spatial pourrait être utilisé pour réduire le temps du voyage entre nous et le système d’étoiles le plus proche. Les « nanocrafts » pourraient se déplacer à une vitesse représentant 20 % celle de la lumière, ou plus de 1000 fois plus rapides que les vaisseaux spatiaux que nous utilisons aujourd’hui.

    Ces nanocrafts consisteraient en de petites sondes de la taille d’un timbre poste, ne dépassant pas l’échelle du gramme, transportant des caméras, des propulseurs de photons, des batteries, un système de navigation et des équipements de communication, offrant les mêmes fonctionnalités qu’une sonde spatiale classique. Elles seraient combinées avec des voiles solaires, de quelques centaines d’atomes d’épaisseur, pour pousser les nanocrafts jusqu’à 45000 km/s, propulsés par d’énormes réseaux de lasers (comme le projet DEEP IN de la NASA).

    Breakthrough Starshot fait partie d’un programme plus large lancé par, notamment, Hawking l’année dernière et appelé "Breakthrough Initiatives", visant à “galvaniser” la recherche de vie extraterrestre. Parmi les autres initiatives déjà lancées sous la même bannière, il y a une mission de 10 ans consistant à sonder les 1 000 000 étoiles, sur le plan galactique, les plus proches pour tenter de détecter des signes de vie intelligente et un concours pour inspirer des idées sur la façon dont nous pourrions communiquer avec une telle vie si elle était trouvée.

    #They_live

  • Palestinian teacher wins global teaching award
    March 13, 2016 7:43 P.M.
    http://www.maannews.com/Content.aspx?id=770684

    BETHLEHEM (Ma’an) — A Palestinian teacher from the occupied West Bank on Sunday won the Valley Park Foundation’s 2016 Global Teacher’s Prize “for her work educating children in Palestine.”

    Hanan al-Hroub , from Duheisha refugee camp in the southern occupied West Bank district of Bethlehem, was announced the winner of the competition during the award ceremony in Dubai.

    About 8,000 teachers from all over the world had competed for the award.

    “Every day we see the suffering in the eyes of our students and teachers caused by Israeli occupation’s military checkpoints," al-Hroub said during her acceptance speech.

    “Teachers work hard to free the childrens’ minds from violence and turn it into dialogues of beauty,” she continued.

    According to the foundation, al-Hroub went into primary education “after her children were left deeply traumatised by a shooting incident they witnessed on their way home from school.”

    “““““““““““““““““““““““““““““““““““
    Palestinian teacher wins global prize worth $1m | World news | The Guardian | Sunday 13 March 2016
    http://www.theguardian.com/world/2016/mar/13/palestinian-teacher-wins-global-prize-worth-1m


    Hanan al-Hroub, a Palestinian primary school teacher, reacts after Pope Francis named her recipient of the second annual Global Teacher prize. Photograph: Kamran Jebreili/AP

    The Duke of Cambridge has paid tribute to the “incredible work” of the teaching profession as a Nobel-style award worth $1m was handed to a teacher from Palestine.

    Hanan al-Hroub, who works with children who have grown up exposed to violence, was given the second annual Global Teacher prize at a star-studded ceremony in Dubai.

    Looking delighted as she was handed the award, Hroub said: “I did it, I won!”

    ““““““““““““““““““““““““““““““““““““““““““““
    Une enseignante palestinienne a reçu le prestigieux prix Global Teacher Prize
    Par i24news | Publié: 13/03/2016
    http://www.i24news.tv/fr/actu/international/moyen-orient/106091-160313-une-enseignante-palestinienne-a-recu-le-prestigieux-prix-globa

    Hanan Al Hroub a été récompensée pour son travail d’éducatrice auprès des enfants traumatisés en Cisjordanie

    Une enseignante palestinienne, Hanan Al Hroub a reçu dimanche le prestigieux prix Global Teacher Prize de la Fondation Varkey GEMS, ainsi que la récompense de 1 million de dollars (près de 900.000 euros) pour son travail d’éducatrice auprès des enfants traumatisés par la violence en Cisjordanie.

    La cérémonie de la remise des prix s’est tenue à Dubaï.

    « Je suis fière d’être une enseignante palestinienne, et je suis fière d’être là », a-t-elle déclaré en recevant son prix.

    « Les enseignants pourraient changer le monde », a-t-elle ajouté.

    Hroub a grandi dans un camp de réfugiés palestiniens près de Bethléem. Elle travaille à présent en tant qu’enseignante auprès des enfants de réfugiés, selon une approche basée sur le jeu qui vise à lutter contre la violence et à faire face aux tensions.

    Son prix, dit-elle servira son projet.

    Hroub et les autres finalistes ont reçu des messages de félicitations de personnalités remarquables du monde entier, tel que le pape François, le prince William, le physicien Stephen Hawking, le vice-président américain Joe Biden, ainsi que l’ancien président américain Bill Clinton.

  • Le meilleur joueur mondial de go battu par une intelligence artificielle dans un match symbolique
    http://www.lemonde.fr/pixels/article/2016/03/09/le-meilleur-joueur-mondial-de-go-battu-par-une-intelligence-artificielle-dan

    Contrairement à la série de matches remportée cinq à zéro par Alphago contre Fan Hui, l’un des meilleurs joueurs européens, en janvier, ce premier affrontement a été extrêment serré. Quelques dizaines de minutes avant la fin de la partie, le commentateur Michael Redmond (joueur professionnel, 9e dan), estimait que la partie pouvait se jouer à « un point ou deux » - un différentiel ridiculement faible dans une partie de go. M. Sedol a finalement reconnu sa défaite, malgré une position plutôt favorable sur le plateau, mais qui ne lui permettait pas de l’emporter aux points.

    [...]

    L’intelligence artificielle, malgré ses progrès fulgurants ces dernières années, est surtout efficace au niveau tactique, lorsque le nombre de choix est suffisament réduit pour lui permettre d’explorer chaque « branche » de décisions en profondeur. Un avantage qui favorise normalement la machine en fin de partie, lorsque le plateau est rempli et que les choix possibles sont plus limités - mais alors que les deux compétiteurs étaient restés très proches en termes de temps utilisé pour réfléchir durant les deux premiers tiers de la partie, Alphago a pris nettement plus de temps que son adversaire pour calculer ses coups dans le dernier tiers, laissant près de 25 minutes d’avance à Lee Sedol .

    Sinon, perso je défie AlphaGo à Time’s up. S’il veut il peut inviter Cortana et pour la partie mimes Atlas est le bienvenu.

    • Pourquoi Stephen Hawking et Bill Gates ont peur de l’intelligence artificielle
      http://www.franceculture.fr/sciences/pourquoi-stephen-hawking-et-bill-gates-ont-peur-de-lintelligence-artif

      Annonces catastrophistes, films d’anticipation ou de science-fiction, ou plus simplement arrivée imminente de technologies prêtes à boulever notre quotidien : les Intelligences Artificielles, ou IA, sont partout.

      A tel point que des scientifiques de renom, tel le célèbre physicien Stephen Hawking, voient en l’avènement de ces technologies un danger pour la race humaine. Pourtant, à écouter les spécialistes, la science est encore loin, voire très loin, de créer des machines plus intelligentes que l’être humain. Alors qu’est-ce, finalement, qu’une intelligence artificielle ?

  • Why Our Universe Doesn’t Have a Birthday - Facts So Romantic
    http://nautil.us/blog/why-our-universe-doesnt-have-a-birthday

    Alex Teuscher/Getty ImagesThe main elements of the Big Bang model are “easily listed,” says Jim Peebles, the Albert Einstein Professor Emeritus of Science at Princeton. The model holds that the large-scale structure of the cosmos is expanding faster and faster and that, on average, the universe looks close to the same no matter where you look. The Big Bang model assumes that conventional physics—including Einstein’s theory of gravity, general relativity—is more or less correct. With this model, if you rewind the tape of history, the universe has a beginning in an inconceivably “hot, dense state”—a singularity—13.8 billion years ago. Time begins when this singularity explodes in the Big Bang. Stephen Hawking has said we can “cut” possible events before the Big Bang out of our cosmological (...)

  • Des robots tueurs, des armes autonomes sans foi ni loi

    http://www.lemonde.fr/societe/article/2015/09/24/robots-tueurs-sans-foi-ni-loi_4770350_3224.html

    On l’appelle SGR-A1. De jour comme de nuit, sur un rayon de 4 kilomètres, ce robot militaire décèle, grâce à son logiciel de «  tracking  », les mouvements d’un intrus. Mis en marche à distance, cet automate pour poste-frontière tire de lui-même, de façon indépendante, sur toute personne ou véhicule qui s’approche. Conçu par Samsung, il est équipé d’une mitrailleuse, d’un lance-grenades, de capteurs de chaleur, de caméras de détection infrarouge et d’une intelligence électronique. En septembre 2014, la Corée du Sud a installé plusieurs de ces engins le long de la zone démilitarisée qui la sépare de la Corée du Nord, afin d’éviter d’envoyer des soldats dans des endroits isolés.

    C’est peu dire qu’une telle arme, «  intelligente   » et autonome, inquiète. Depuis 2012, elle est ­régulièrement dénoncée par une coalition de 51 organisations non gouvernementales (ONG) coordonnée par Human Rights Watch, dans le ­cadre de la campagne internationale «  Stop Killer Robots   » («  Arrêtez les robots tueurs   »). Le mouvement de protestation a été relancé à grand bruit, le 28 juillet, grâce à une lettre ouverte signée par près de 3  000 personnalités, dont des chercheurs en robotique, des scientifiques comme le physicien Stephen Hawking et des figures de l’industrie high-tech, comme Elon Musk, PDG de Tesla Motors, ou Steve Wozniak, cofondateur d’Apple. Pour eux, un tel robot militaire, et tous ceux qui risquent de suivre du fait des avancées rapides de l’intelligence artificielle, soulève de graves questions éthiques et juridiques qui remettent en cause le droit de la guerre.

    Droit moral

    (…) Or, lerobot sentinelle SGR-A1 est incapable de faire ces choix : il tire automatiquement sur tout ce qui bouge. Ce faisant, il risque à tout ​moment de violer deux principes du droit international humanitaire
    (DIH) qui régit les conflits armés depuis les conventions de Genève de 1949 et leurs protocoles additionnels : d’une part, la règle cardinale de la « distinction » entre les civils et les militaires ; ensuite, la nécessité d’éviter des violences « disproportionnées » par rapport aux menaces, et donc de procéder à une évaluation.

    L’autre problème soulevé par l’usage des robots tueurs est celui de la responsabilité pénale. Si l’un d’entre eux commettait un dommage collatéral ou abattait des civils, contre qui les victimes et leurs familles pourraient-elles se retourner ? ​Human Rights Watch pointe le « vide juridique » qui entoure ces armes nouvelles. Rien n’est prévu dans le droit international humanitaire.

    Pour discuter des dangers de ces systèmes d’armes létaux autonomes (SALA, la traduction française de lethal autonomous weapons systems), une réunion multilatérale mobilisant des représentants de 87 pays, ainsi que des délégués de la coalition d’ONG Stop Killer Robots, s’est tenue en mai 2014 aux Nations unies, à Genève, dans le cadre de la convention sur les armes classiques. Les ONG espèrent arriver à un accord pour l’interdiction de telles armes, comme cela fut le cas, en 2008, pour les armes à sous-munitions. Car, à écouter les spécialistes de la robotique qui les dénoncent, les SALA ont de quoi faire peur.

    « Létalité comparable à celle des armes nucléaires »

    Le 27 mai, dans la revue Nature, une tribune de l’Américain Stuart Russell, spécialiste de l’intelligence artificielle (IA), professeur d’informatique à l’université de Californie, prévenait que ces armes allaient être améliorées et développées « dans les années à venir » – c’est-à-dire très vite. Contacté par Le Monde, ce chercheur décrit l’extrême sophistication atteinte par « la combinaison des composants robotiques et de l’IA ». Equipé d’outils de navigation, de logiciels de « prise de ​- décision tactique » et de « planification à long terme », mais également doté d’un programme d’apprentissage, un véhicule inhabité trouve aujourd’hui seul son chemin dans un ​environnement difficile. Une fois militarisé, il pourra mener « des missions urbaines de recherche et d’élimination de cibles ». Stuart Russell ​assure qu’aux Etats-Unis, deux programmes de la Defense Advanced Research Projects Agency (Darpa), qui dépend du ministère de la défense, portent sur des hélicoptères miniatures capables de s’orienter seuls dans des immeubles où toute information est brouillée. Selon lui, l’armement de ces robots, qui pourraient diminuer jusqu’à n’être pas plus gros que des insectes – ce qui rappelle les agents arachnoïdes du film ​Minority Report (2002), de Steven Spielberg –, est déjà expérimenté en secret.

    Dans un rapport présenté à l’ONU en avril, M. Russell soutient qu’il faut s’attendre à voir apparaître d’ici vingt ans des essaims de giravions miniatures, équipés de cerveaux décisionnels et dotés de munitions capables de perforer les yeux ou de projeter des ondes ​hypersoniques mortelles. Ces armes pourraient posséder, dit-il, « une létalité comparable à celle des armes nucléaires » face à laquelle les humains « seront sans défense ». Dans leur lettre ouverte de juillet, les scientifiques avancent que le saut technologique, mais aussi éthique, franchi par l’usage présent et futur de SALA peut être comparé à l’invention de la « poudre à canon » et à celle des « armes nucléaires », et parlent d’une grave « perte d’humanité ». Ils soulignent que de telles armes, « intelligentes » mais sans aucune disposition morale, « sont idéales pour des tâches telles qu’assassiner, déstabiliser les nations, soumettre les populations et tuer un groupe ethnique particulier ». Ils ​- redoutent que « des dictateurs » les utilisent comme forces de l’ordre, ou que des « seigneurs de guerre » s’en servent pour « perpétrer un nettoyage ethnique ».

    Marché noir

    Ils expliquent enfin que ces robots ne sont pas coûteux à fabriquer, ne nécessitent aucune matière première rare, et qu’ils risquent ​d’apparaître rapidement « sur le marché noir ». Passant « aux mains de terroristes », ils deviendraient les « kalachnikovs de demain ». Autant de fortes raisons pour demander un moratoire international sur leur construction, en vue d’établir, comme le dit l’Américain Peter Asaro, philosophe s’intéressant à l’éthique des machines, « une norme interdisant toute délégation de tuer à une machine » et conservant « le choix de cibler et de tirer sous contrôle humain ».

    La campagne « Stop Killer Robots » est très critiquée, tant aux Etats-Unis qu’en Europe, par de nombreux spécialistes militaires, des ingénieurs de l’armement et des théoriciens de l’éthique des armes. En février 2013, le juriste américain Michael Schmitt, professeur de droit international à l’US Naval War College, a tenu à répondre sur le fond à Human Rights Watch dans le National Security Journal, de la faculté de droit de Harvard. Il estime que les opposants aux SALA jouent sur les mots en s’en prenant à l’« autonomie » des machines, alors que de nombreuses armes opération​nelles utilisent déjà des technologies intelli​gentes : certains missiles sol-air, surnommés « Fire-and-Forget
     » (« tire et oublie »), vont chercher seuls un objectif désigné, conduits par des outils de détection. Le canon antimissiles-antinavires Phalanx tire directement sur ses cibles grâce à un calculateur de position. Quant au système antiroquettes automatisé d’Israël, Iron Dome, utilisé en juillet 2014 durant l’opération Bordure protectrice, il est équipé d’un ordinateur de gestion de bataille.

    Si ces armes, explique Michael Schmitt, peuvent tirer de façon « automatique » sur une ​cible, elles n’en sont pas pour autant « auto​nomes ». L’homme « reste toujours dans la boucle de commandement », même s’il est très éloigné du terrain, et peut toujours décider d’arrêter à distance la mitrailleuse automatique, de reprogrammer le missile en vol ou le drone – autrement dit, il conserve l’acte moral de suspendre la décision de tuer. A ce jour, souligne Michael Schmitt, il n’existe pas encore de robots totalement indépendants. Il préfère s’en tenir à la définition avancée par le Defense Science Board américain (une instance de ​conseil du ministère de la défense), qui considère « les armes autonomes comme faisant partie d’un système homme-machine ».

    Nécessité stratégique

    En France, la spécialiste de l’éthique des machines Catherine Tessier, maître de conférences à l’Office national d’études et de recherches aérospatiales, avance dans l’ouvrage collectif Drones et « killer robots ». Faut-il les interdire ? (Presses universitaires de Rennes, 268 pages, 18 euros) que les anti-SALAconfondent les « automatismes embarqués », comme le pilotage et le guidage, avec l’autonomie. Pour elle, il ne faut pas oublier ce pour quoi a été « programmé » le robot, comment l’homme « partage les décisions » de la machine, interprète les évaluations de ses logiciels et peut l’arrêter. De son côté, la capitaine Océane Zubeldia, de l’Institut de recherche stratégique de l’Ecole militaire, rappelle que la robotisation, qui s’est ​accélérée avec l’essor extraordinaire des technologies de l’information et de la communication et des réseaux satellitaires, répond à une nécessité stratégique pour les armées.

    Depuis la première guerre du Golfe, en 1991, la guerre moderne est devenue, nous dit-elle, une « guerre cybernétique », une « guerre de l’information » utilisant des « systèmes d’armes intégrés » et des « véhicules inhabités » comme les drones. A cet aspect stratégique s’ajoute un ​objectif humanitaire et éthique : il faut « diminuer les risques de perdre les équipages » et « les éloigner de la zone des conflits ». « Le prix de la vie humaine, souligne-t-elle, n’a cessé de prendre de l’importance, et si la prise de risques reste une valeur essentielle du militaire, le “gaspillage” des vies n’est plus toléré, ni par la société ni par les autorités. »

    Epargner les soldats

    Une grande partie des arguments éthiques en faveur de la robotisation des armes découle de cet impératif humain : elle permet d’épargner les soldats – enfin, les soldats amis. Il est vrai qu’un robot ne peut être tué, blessé ou pris en otage. Il ne souffre pas des intempéries, ignore la fatigue et la peur, effectue sans état d’âme des missions-suicides. Il peut être envoyé dans des zones contaminées, minées, ou dans des sanctuaires ennemis et terroristes. Ce robot-soldat n’est pas affecté par la ​colère, la vengeance. Il ne viole pas, ne torture pas. Souvent, son tir est plus précis que celui d’un soldat. Océane Zubeldia pense qu’il peut jouer un rôle dissuasif, à la manière d’un ​- golem contemporain.

    Sur la question de la responsabilité en cas de crime de guerre, Didier Danet, du Centre de recherche des écoles de Saint-Cyr Coëtquidan (ministère de la défense), observe qu’un robot ne saurait être considéré comme une « personne morale » au sens de l’article 1134 du code civil : un sujet doué de volonté, se donnant à lui-même ses propres objectifs, compatibles avec le respect des lois existantes. Selon lui, aucun robot militaire ne répond à ces critères – et aucun sans doute n’y répondra jamais. La machine, nous dit-il, se contente d’une « autonomie fonctionnelle » limitée : son activité, l’« autorisation » de son action dépendent des opérateurs humains. Elle reste un objet de droit, non un sujet. D’ailleurs, écrit-il dans l’introduction de Drones et « killer robots », en termes juridiques le soldat reste responsable de l’usage qu’il fait de son arme. Si un robot commet un dommage collatéral, le commandement devra en répondre : c’est sur lui que le droit international humanitaire continue de s’exercer.

    Voilà pourquoi, analyse Didier Danet, il vaudrait mieux que l’ONU n’interdise pas les ​armes létales autonomes. Cela risquerait de compliquer encore le droit de la guerre, mais aussi de paralyser la recherche en robotique permettant d’éloigner les soldats des zones de conflit.

    Luttes éthiques

    De toute façon, l’histoire des armements et de leurs usages montre que les luttes éthiques pour interdire des armes jugées irrecevables aboutissent rarement, mais aussi que le jugement porté sur elles évolue. Alain Crémieux, ancien ingénieur général de l’armement, auteur de L’Ethique des armes (Aegeus, 2006), rappelle qu’en 1139 déjà, lors du IIe concile de Latran, l’usage de l’arbalète avait été interdit entre chrétiens. Il paraissait « moralement inacceptable » que les « piétons » des armées, des gens du peuple, puissent abattre des chevaliers à distance. Pourtant, l’arbalète a été conservée. Elle a été remplacée, au début du XVIe siècle, par l’arquebuse, elle aussi rejetée par les moralistes pour sa létalité, puis par le mousquet, l’ancêtre du fusil à silex, lui-même adopté en France sous le règne de Louis XIV. Or, fait remarquer Crémieux, depuis, rares sont ceux qui remettent en cause les armes à feu légères : « Elles ont même été tellement identifiées à la guerre nationale et à la guerre populaire qu’il paraît inutile de chercher à les décrier. Le pouvoir et la liberté elle-même ne peuvent-ils pas être “au bout du fusil” ? »

    L’historien François Cochet, spécialiste de la mémoire des guerres, met en lumière la contradiction permanente entre le « sentiment d’horreur » que soulèvent certaines armes et le « cynisme » politique et militaire qui l’accompagne. Il donne un exemple fameux : en 1899, la conférence de la paix de La Haye, à laquelle participent 26 gouvernements, décide d’interdire « de lancer des projectiles et des explosifs du haut des ballons ou par d’autres modes analogues ». Une mort venue d’en haut, hors de portée, parfois hors de vue, semblait alors insupportable. « Ces exigences, constate François ​Cochet, n’ont pas arrêté les bombardements ​aériens pour autant ! Les Etats ont signé les protocoles, sans toujours les ratifier, en se préparant cyniquement à l’étape suivante, l’aviation militaire, que les Européens ont testée dans leurs colonies. » L’historien relève un autre exemple de cynisme : « Après 14-18, l’Allemagne a demandé l’interdiction des gaz asphyxiants, qu’elle avait beaucoup utilisés dans les tranchées, parce qu’elle savait que les autres pays en disposaient. »

    L’interdiction, un combat perdu ?

    Alors, interdire une arme effroyable, un combat perdu d’avance ? Les ONG et les scientifiques qui s’opposent aux robots tueurs refusent de céder au cynisme du laisser-faire. Ils rappellent que plusieurs batailles éthiques récentes ont mené à l’interdiction par l’ONU et par le droit international humanitaire des ​armes chimiques (1993), des armes à laser aveuglantes (1995) et des mines antipersonnel (1997). Bonnie Docherty, membre d’Human ​Rights Watch et enseignante à la Harvard Law School, a publié le 4 septembre un mémoire où elle répond aux arguments de ceux qui justifient les SALA en affirmant que les militaires resteront responsables – et devront rendre des comptes en cas de crime de guerre. Elle montre que, au contraire, ils pourront toujours se retrancher derrière une faute du robot, arguant que les communications avec lui ont été rompues, qu’il a agi trop vite, que les spécialistes étaient absents ou qu’un logiciel a dysfonctionné. Les victimes, elles, auront le plus grand mal à ​demander réparation, car la responsabilité personnelle, base du droit, se trouvera diluée dans des dispositifs techniques.

    Faudra-t-il alors, demande la juriste, se ​retourner contre les fabricants des armes ? La Direction générale de l’armement ? Ou contre les politiques qui ont validé l’usage des SALA ? Pour Human Rights Watch, de telles démarches juridiques rencontreront des obstacles ​insurmontables : elles n’aboutiront pas. Cette impunité leur semble très grave. Elle rendra très difficile de « dissuader » les militaires et les forces de l’ordre d’utiliser des robots létaux. Nous entrerions alors dans une époque plus inhumaine.

  • Actualité > #Robots tueurs : Hawking, Musk et Tegmark contre Terminator
    http://www.futura-sciences.com/magazines/high-tech/infos/actu/d/robotique-robots-tueurs-hawking-musk-tegmark-terminator-59181

    De plus en plus de voix s’élèvent pour mettre en garde contre les dangers de l’intelligence artificielle. Les dernières en date ne sont rien de moins que celles d’Elon Musk, Stephen Hawking et Steve Wozniak qui, avec l’aide de l’institut Future of Life, fondé par Max Tegmark, appellent à une interdiction des robots militaires autonomes. Plus de 2.000 experts en IA se joignent à eux avec une lettre ouverte.

    #skynet

  • Stephen Hawking et Elon Musk réclament l’interdiction des « #robots_tueurs »
    http://www.lemonde.fr/pixels/article/2015/07/27/intelligence-artificielle-hawking-musk-et-chomsky-reclament-l-interdiction-d

    C’est une nouvelle charge portée contre les dangers potentiels de l’#intelligence_artificielle (#IA). Dans une lettre ouverte publiée lundi 27 juillet, plus d’un millier de personnalités, dont une majorité de chercheurs en IA et en robotique, ont réclamé l’interdiction des #armes_autonomes, capables « de sélectionner et de combattre des cibles sans intervention humaine ».

    Parmi les signataires, on retrouve Elon Musk, le célèbre PDG du constructeur de voitures électriques Tesla et de SpaceX, et l’astrophysicien britannique Stephen Hawking, qui avaient déjà fait part publiquement de leurs inquiétudes concernant l’IA. Mais aussi le cofondateur d’Apple Steve Wozniak, le linguiste américain Noam Chomsky ou encore Demis Hassabis, le fondateur de DeepMind, une entreprise consacrée à l’intelligence artificielle rachetée par Google.

    Leur crainte : que les Etats se lancent dans « une course à l’#armement », justifiée par le fait que « remplacer des hommes par des machines permet de limiter le nombre de victimes du côté de celui qui les possède ». Pour eux, « la question clé de l’humanité, aujourd’hui, est de savoir s’il faut démarrer une course à l’armement doté d’IA ou l’empêcher de commencer ».

    #armes #armement

  • Intel va rendre Open Source la voix de Stephen Hawking
    http://www.comptoir-hardware.com/actus/ordinateurs/29276-intel-va-rendre-open-source-la-voix-de-stephen-hawking.html

    Vous connaissez très certainement Stephen Hawking, ne serait-ce que de nom. Si ce n’est pour son travail sur la cosmologie, les trous noirs, trous de vers et la gravité quantique, c’est au moins pour ses apparitions dans The Big Bang Theory, son combat contre la sclérose latérale amyotrophique (SLA) ou encore la machine qui lui permet de s’exprimer en public avec cette voix si particulière... [Tout lire]

    #Systèmes_complets

  • Dominer le monde ? (SVP, cliquer Accepter)
    http://www.zeroseconde.com/2015/02/dominer-le-monde-svp-cliquer-accepter

    Fait à noter, la crainte que l’intelligence artificielle (IA) puisse poser un sérieux risque pour « l’existence de l’humanité » n’est plus induite par des films hollywoodiens, mais par des avancées technologiques bien réelles. Bill Gates, Elon Musk et Stephen Hawking, que l’on ne peut considérer comme des luddites, l’ont exprimé récemment. Mais c’était en des termes peu spécifiques. Les […]

    #Emergence #Robotique #Monde_déplié

    • La force asymétrique permet à quelques un de s’insérer dans l’arrière-plan du décor. Les transactions à haute fréquence ne manipulent pas les ficelles de la bourse. Dans l’infiniment rapide, ces algorithmes ont tout simplement le temps de prendre la meilleure décision (statistique).

      Avec Watson, ou la promesse de l’intelligence artificielle, quelques privilégiés accèderont à l’arrière-plan du décor du monde pour comprendre mieux –ou plus vite– la réalité qu’eux seuls perçoivent dans les grandes lignes.

      Les gens qui auront accès aux connaissances du monde déplié, en garderont-ils les clés que pour eux ?

      Google y est. Facebook y est. IBM s’en vient. Dans tous les cas, nous les aidons à aller dans cette direction.

      Je m’inquiète surtout pour l’instant que certains puissent plutôt en profiter pour changer le cours de la partie à leur seul avantage.

      Je vois deux métaphores pour résumer mon point.

      C’est comme si, en 1491, certains avaient accès à une carte du continent.

      Ou, c’est comme posséder des HoloLens au royaume des aveugles.

  • The Theory of Everything (2014)
    http://www.rogerebert.com/reviews/the-theory-of-everything-2014

    Here is the sad and frustrating irony of “The Theory of Everything”: it’s a biopic about one of the most brilliant people in the history of the planet, the renowned astrophysicist Stephen Hawking – a man famous for thinking in boldly innovative ways – yet his story is told in the safest and most conventional method imaginable.

    un #film trou noir, donc
    #physique #ALS

  • #AI Has Arrived, and That Really Worries the World’s Brightest Minds
    http://www.wired.com/2015/01/ai-arrived-really-worries-worlds-brightest-minds

    On the first Sunday afternoon of 2015, Elon Musk took to the stage at a closed-door conference at a Puerto Rican resort to discuss an intelligence explosion. This slightly scary theoretical term refers to an uncontrolled hyper-leap in the cognitive ability of AI that Musk and physicist Stephen Hawking worry could one day spell doom for the human race.

    That someone of Musk’s considerable public stature was addressing an AI ethics conference—long the domain of obscure academics—was remarkable. But the conference, with the optimistic title “The Future of AI: Opportunities and Challenges,” was an unprecedented meeting of the minds that brought academics like Oxford AI ethicist Nick Bostrom [cf. http://seenthis.net/messages/320860] together with industry bigwigs like Skype founder Jaan Tallinn and Google AI expert Shane Legg.

    Musk and Hawking fret over an AI apocalypse, but there are more immediate threats. In the past five years, advances in artificial intelligence—in particular, within a branch of AI #algorithms called deep neural networks—are putting AI-driven products front-and-center in our lives. Google, Facebook, Microsoft and Baidu, to name a few, are hiring artificial intelligence researchers at an unprecedented rate, and putting hundreds of millions of dollars into the race for better algorithms and smarter computers.

    AI problems that seemed nearly unassailable just a few years ago are now being solved.

    • Hawking : « L’intelligence artificielle pourrait mettre fin à l’humanité »
      Le Monde.fr avec AFP | 03.12.2014

      http://www.lemonde.fr/pixels/article/2014/12/03/hawking-l-intelligence-artificielle-pourrait-mettre-fin-a-l-humanite_4533135

      « Les formes primitives d’intelligence artificielle que nous avons déjà se sont montrées très utiles. Mais je pense que le développement d’une intelligence artificielle complète pourrait mettre fin à l’humanité », a affirmé le professeur dans cet entretien. « Une fois que les hommes auraient développé l’intelligence artificielle, celle-ci décollerait seule, et se redéfinirait de plus en plus vite », a-t-il déclaré. « Les humains, limités par une lente évolution biologique, ne pourraient pas rivaliser et seraient dépassés », poursuit M. Hawking, considéré comme un des plus brillants scientifiques vivants.

  • Stephen Hawking Starts Posting on Facebook: Join His Quest to Explain What Makes the Universe Exist | Open Culture
    http://www.openculture.com/2014/10/stephen-hawking-starts-posting-on-facebook.html

    I have no idea whether there’s intelligent life out there in the universe. But we can at least confirm that there’s a little intelligent life on Facebook, seeing that Stephen Hawking, the world’s best known theoretical physicist, began posting there yesterday. His first status update reads:

    I have always wondered what makes the universe exist. Time and space may forever be a mystery, but that has not stopped my pursuit. Our connections to one another have grown infinitely and now that I have the chance, I’m eager to share this journey with you. Be curious, I know I will forever be.

    Welcome, and thank you for visiting my Facebook Page. -SH

    Join his official Facebook page here. And find/like the official Open Culture page here, where we make it easy to share our daily cultural posts with your family and friends....

    #Stephen Hawking

  • Some of Stephen Hawking’s Big Ideas Explained in an Amazing Animation
    http://www.filmsforaction.org/watch/some-of-stephen-hawkings-big-ideas-explained-in-an-amazing-animation

    No time to read Stephen Hawking’s A Brief History of Time? In just two and a half minutes, Alok Jha explains why black holes are doomed to shrink into nothingness then explode with the energy of a...

  • Stephen Hawking’s support for the boycott of Israel is a turning point | Ali Abunimah | Comment is free | The Guardian
    http://www.theguardian.com/commentisfree/2013/may/09/stephen-hawking-palestinian-boycott-israel-history

    A standard objection to the Palestinian campaign for the boycott of Israel is that it would cut off “dialogue” and hurt the chances of peace. We’ve heard this again in the wake of Professor Stephen Hawking’s laudable decision to withdraw from Israel’s Presidential Conference in response to requests from Palestinian academics – but it would be hard to think of a more unconvincing position as far as Palestinians are concerned.

    One of the most deceptive aspects of the so-called peace process is the pretence that Palestinians and Israelis are two equal sides, equally at fault, equally responsible – thus erasing from view the brutal reality that Palestinians are an occupied, colonised people, dispossessed at the hands of one of the most powerful militaries on earth.

    For more than two decades, under the cover of this fiction, Palestinians have engaged in internationally-sponsored “peace talks” and other forms of dialogue, only to watch as Israel has continued to occupy, steal and settle their land, and to kill and maim thousands of people with impunity.

    While there are a handful of courageous dissenting Israeli voices, major Israeli institutions, especially the universities, have been complicit in this oppression by, for example, engaging in research and training partnerships with the Israeli army. Israel’s government has actively engaged academics, artists and other cultural figures in international “Brand Israel” campaigns to prettify the country’s image and distract attention from the oppression of Palestinians.

    The vast majority of Palestinians, meanwhile, have been disenfranchised by the official peace process as their fate has been placed in the hands of venal and comprised envoys such as Tony Blair, and US and EU governments that only seem to find the courage to implement international law and protect human rights when it comes to the transgressions of African or Arab states......

    #Stephen_Hawking
    #boycott
    #Israel

  • Stephen Hawking: ’Transcendence looks at the implications of artificial intelligence - but are we taking AI seriously enough?’ - Science - News - The Independent
    http://www.independent.co.uk/news/science/stephen-hawking-transcendence-looks-at-the-implications-of-artificial

    there are no fundamental limits to what can be achieved: there is no physical law precluding particles from being organised in ways that perform even more advanced computations than the arrangements of particles in human brains. An explosive transition is possible

  • Selon Stephen Hawking, nous ne sommes pas préparés à l’avènement de l’intelligence artificielle | Slate (v @NeoHumanitas)
    http://www.slate.fr/life/86693/avenement-intelligence-artificielle-stephen-hawking

    Raffa

    Selon Stephen Hawking, nous ne sommes pas préparés à l’avènement de l’intelligence artificielle | Slate (v @NeoHumanitas) - http://www.slate.fr/life...

    2 hours ago

    from Bookmarklet

    Comment

    Like

    « A voir tous ces scénarios, on pourrait se croire au moins préparés, explique Stephen Hawking. Mais il n’en est rien, ajoute-t-il : même si la communauté scientifique semble au courant des dangers potentiels de l’intelligence artificielle, très peu de chercheurs se consacrent à en évaluer les risques et à se préparer à les éviter, ou à les combattre. » - Raffa

  • Art of Jin: Champions of Reason. From left to right: John Cleese, Penn Jillette, Bill Nye, Stephen Hawking, (above) Frederick Nietzsche, (below) George Carlin, Carl Sagan, Christopher Hitchens, Richard Dawkins, Charles Darwin, Neil DeGrasse Tyson, Adam Savage, Michio Kaku.

    http://saejinoh.blogspot.ch/2012/05/champions-of-reason.html

  • L’astrophysicien Stephen Hawking crée un Big Bang en boycottant Israël - ISRAËL - FRANCE 24
    http://www.france24.com/fr/20130509-astrophysicien-stephen-hawking-bigbang-israel-shimon-peres-boycot

    C’est un refus qui fait du bruit. Après avoir accepté l’invitation du président israélien Shimon Peres à sa conférence annuelle intitulée « Faire face à demain », le célèbre astrophysicien britannique Stephen Hawking, 71 ans, a finalement annoncé qu’il ne se rendrait pas au mois de juin à cet événement. Le scientifique de renommée internationale a justifié son absence dans un communiqué publié avec son accord sur le site du Comité britannique pour les universités de Palestine, une organisation qui s’oppose à l’occupation des Territoires palestiniens et appelle au boycott académique d’Israël. « Il s’agit de sa décision indépendante de respecter le boycott, suivant sa connaissance de la Palestine et les conseils unanimes de ses contacts universitaires sur place », peut-on lire dans ce document.

  • Noam Chomsky helped lobby Stephen Hawking to stage Israel boycott | World news | The Guardian
    http://www.guardian.co.uk/world/2013/may/10/noam-chomsky-stephen-hawking-israel-boycott?CMP=twt_gu

    Robert Booth and Harriet Sherwood in Jerusalem
    The Guardian, Friday 10 May 2013 19.47 BST

    Chomsky, who has backed “boycott and divestment of firms that are carrying out operations in the occupied territories”, agreed to add his considerable weight to the pressure on Hawking after email correspondence with the British Committee for the Universities of Palestine campaign group (Bricup), said its chair, Jonathan Rosenhead.

    The letter to Hawking declared: “Israel systematically discriminates against the Palestinians who make up 20% of its population in ways that would be illegal in Britain”, its treatment of the people of Gaza amounts to “collective punishment”, the construction of Jewish settlements breaches the Geneva convention and “Israel places multiple roadblocks, physical, financial and legal, in the way of higher education, both for its own Palestinian citizens and those under occupation”.

    The letter continued: “Israel has a name for the promotion of its cultural and scientific standing: ’Brand Israel’. This is a deliberate policy of camouflaging its oppressive acts behind a cultured veneer.”

    Professor Malcolm Levitt, a fellow of the Royal Society and an expert in magnetic resonance at Southampton University, who signed the letter, said: “Israel has a totally explicit policy of making life impossible for the non-Jewish population and I find it totally unacceptable. As a scientist, the tool I have available to prevent the normalisation of that situation is boycott. It is a tough choice because Israel is full of brilliant scientists and they are our colleagues.”

  • L’astrophysicien Stephen Hawking crée un Big Bang en boycottant Israël

    Le célèbre astrophysicien britannique Stephen Hawking a déclenché une polémique après avoir décidé de se retirer d’une conférence organisée en Israël. Il rejoint ainsi un groupe d’universitaires qui boycottent l’État hébreu.

    http://www.france24.com/fr/20130509-astrophysicien-stephen-hawking-bigbang-israel-shimon-peres-boycot

    #Israël