person:isaac asimov

  • Are People Losing Control Over Robots ?
    https://hackernoon.com/are-people-losing-control-over-robots-38b6af76a889?source=rss----3a8144e

    Humans have long been fascinated with the idea of robots — human-like robots. It’s been 50 years since Isaac Asimov, an American writer and professor of biochemistry at Boston University, devised his famous Three Laws of #robotics* — a set of rules designed to ensure friendly robot behavior. Isaac Asimov imagined a futuristic world in which humanoid robots were commonplace and, famously, programmed with the Three Laws of Robotics to help — and not harm — their human counterparts.OctaviaWe’re accustomed to the idea of machines acting like people. We’re even accustomed to the idea of machines thinking in ways that remind us of humans. For example, Octavia, a humanoid robot designed to fight fires on Navy ships, has mastered an impressive range of facial expressions.SophiaSophia, a social humanoid of (...)

    #investors #ai #artificial-intelligence #people-robot-control

  • GIVE ENGINEERS AN ASSISTANT
    https://hackernoon.com/give-engineers-an-assistant-6a23bbd80dc8?source=rss----3a8144eabfe3---4

    Left: images from the 1977 NASA SP-413 “Space Settlements — A Design Study,” Right: Isaac Asimov (Photo: Toronto Star)Maximizing access to the best methods & tools benefits us allIn 1977, the NASA report Space Settlements — A Design Study published a grand vision of the future where among many accomplishments there would be space stations orbiting earth devoted to beaming down plentiful concentrated solar energy. The report stated: “power stations are placed in orbit around the Earth to which they deliver copious and valuable electrical energy. The economic value of these power stations will go far to justify the existence of the colony and the construction of more colonies.” Thirty Five years ago, the famous writer and futurist Isaac Asimov wrote predictions for 2019 in the Toronto Star. One (...)

    #engineering #hpc #hackernoon-top-story #climate-change #ai

  • #cryptoeconomics and Asimov’s Psychohistory
    https://hackernoon.com/cryptoeconomics-and-asimovs-psychohistory-e0a3a70157be?source=rss----3a8

    I recently finished the Foundation series by Isaac Asimov, one of the most popular and influential science fiction series ever, and I found myself getting pulled into it for many of the same reasons I have become so interested in cryptocurrencies and decentralized #blockchain projects. The trading, the “moon” and the “lambos” are all great, but what keeps me hooked on crypto is the developing field of cryptoeconomics, a technology-enabled mix of philosophy, sociology, psychology and economics; I will leave it to Vitalik to explain it in more detail.Using cryptography to prove properties about messages that happened in the past and economic incentives defined inside the system to encourage desired properties to hold into the future.(Paraphrased from Vitalik Buterin’s presentation on (...)

    #bitcoin #asimov-psychohistory #isaac-asimov

  • Neal Stephenson : Innovation Starvation | WIRED
    https://www.wired.com/2011/10/stephenson-innovation-starvation

    par Neil Stephenson

    Still, I worry that our inability to match the achievements of the 1960s space program might be symptomatic of a general failure of our society to get big things done. My parents and grandparents witnessed the creation of the airplane, the automobile, nuclear energy, and the computer to name only a few. Scientists and engineers who came of age during the first half of the 20th century could look forward to building things that would solve age-old problems, transform the landscape, build the economy, and provide jobs for the burgeoning middle class that was the basis for our stable democracy.

    The Deepwater Horizon oil spill of 2010 crystallized my feeling that we have lost our ability to get important things done. The OPEC oil shock was in 1973 — almost 40 years ago. It was obvious then that it was crazy for the United States to let itself be held economic hostage to the kinds of countries where oil was being produced. It led to Jimmy Carter’s proposal for the development of an enormous synthetic fuels industry on American soil. Whatever one might think of the merits of the Carter presidency or of this particular proposal, it was, at least, a serious effort to come to grips with the problem.

    The audience at Future Tense was more confident than I that science fiction [SF] had relevance — even utility — in addressing the problem.

    I heard two theories as to why:

    The Inspiration Theory. SF inspires people to choose science and engineering as careers. This much is undoubtedly true, and somewhat obvious.
    The Hieroglyph Theory. Good SF supplies a plausible, fully thought-out picture of an alternate reality in which some sort of compelling innovation has taken place. A good SF universe has a coherence and internal logic that makes sense to scientists and engineers. Examples include Isaac Asimov’s robots, Robert Heinlein’s rocket ships, and William Gibson’s cyberspace. As Jim Karkanias of Microsoft Research puts it, such icons serve as hieroglyphs — simple, recognizable symbols on whose significance everyone agrees.

    Today’s belief in ineluctable certainty is the true innovation-killer of our age. In this environment, the best an audacious manager can do is to develop small improvements to existing systems — climbing the hill, as it were, toward a local maximum, trimming fat, eking out the occasional tiny innovation — like city planners painting bicycle lanes on the streets as a gesture toward solving our energy problems. Any strategy that involves crossing a valley — accepting short-term losses to reach a higher hill in the distance — will soon be brought to a halt by the demands of a system that celebrates short-term gains and tolerates stagnation, but condemns anything else as failure. In short, a world where big stuff can never get done.

    #Science_fiction #Innovation #Neil_Stephenson

  • Laurent Alexandre, prophète du QI artificiel Le Comptoir le 22 septembre 2017 - Michel Juffé
    https://comptoir.org/2017/09/22/laurent-alexandre-prophete-du-qi-artificiel

    Les discussions autour de la technologie sont sujettes à de nombreuses spéculations plus ou moins rigoureuses. Le Comptoir vous propose ici une version remaniée d’un texte initialement paru sur le blog technocritique Mais où va le web ?. Plein de bon sens, le philosophe Michel Juffé y questionne les fondements et les errances intellectuelles des interventions-spectacles de Laurent Alexandre, (fut)urologue (spécialiste) de l’intelligence artificielle et fondateur du site Doctissimo dont le “sérieux” n’est plus à prouver. Le philosophe répond notamment à son entretien publié au Figarovox en juin 2017 et qui donne le ton : « “Bienvenue à Gattaca” deviendra la norme ».

    Laurent Alexandre n’hésite pas à déclarer que :

    « L’intelligence dans une société numérique est la clé de tout pouvoir politique et économique. Nous avons créé une société de la connaissance sans réfléchir aux conséquences. Nous avons bâti une économie de la connaissance, sans comprendre que nous allions donner un avantage immense aux gens maîtrisant les données, dotés de plasticité cérébrale leur permettant de changer régulièrement de métier et de se former leur vie durant : toutes qualités qui sont mesurées par le QI [quotient intellectuel, NDLR]. Un point de QI supplémentaire fera de plus en plus la différence dans la société de la connaissance. Il faudrait rebaptiser le QI et l’appeler QCIA, le Quotient de complémentarité avec l’intelligence artificielle, pour lui ôter son caractère stigmatisant. À partir de 2020, le QI minimum pour avoir un emploi va augmenter de l’ordre de cinq à dix points par décennie. »

    Le QI n’a jamais été présenté, par ses inventeurs, comme une mesure de l’intelligence au sens global du terme – qui mesurerait la capacité de discriminer, jugement, esprit d’analyse et de synthèse, créativité, etc. – mais comme une mesure de performances dûment étalonnées, c’est-à-dire, pour grossir le trait, celles qu’on attend d’un élève qui a appris à lire, écrire, compter et dessiner.


    Prenons par exemple un test de QI en ligne (il y a des dizaines de sites du genre, ils sont rarement très sérieux…). On nous dit que : « Ce test de QI en ligne évaluera votre quotient intellectuel ou QI. Ce test QI rapide donne un résultat quantitatif et standardisé lié à l’intelligence abstraite. Nous utilisons la méthode du “QI par rang”. Elle permet à une personne de se comparer à un ensemble d’individus classés par secteur. » En clair, c’est un test comparatif, qui ne peut donner de valeurs absolues. Le QI donne donc un indice de dispersion autour d’une moyenne. En l’occurrence pour le QI standard, la moyenne est fixée à 100 pour des raisons arbitraires et historiques. La dispersion des valeurs de QI se situe généralement entre 60 à 140, sachant que moins de 70 est considéré comme “extrêmement inférieur” et que plus de 130 est “extrêmement supérieur”. À quoi ? Eh bien à la moyenne toujours arbitrairement fixée à 100. On a ainsi pu dire que le QI ne mesure que lui-même !

    Ainsi, quand on lit, par exemple, que le QI moyen des Français est de 98, que celui de la plupart des pays d’Afrique est de 70, et que celui de la Chine est de 105, c’est entièrement faux. N’y voir aucun préjugé racial ! Pour que de tels résultats soient valides, il faudrait placer un échantillon de toute la population mondiale dans un seul lot, un seul “secteur”, lui faire disposer des mêmes éléments culturels, des mêmes conditions de passation du test, et d’une garantie très forte de bonne lecture des résultats. C’est rigoureusement impossible. Ce que révèle l’édification du QI en mesure de l’intelligence ou encore en point de comparaison entre sociétés ou civilisations, c’est surtout une position idéologique très forte. Ce qu’on promeut à travers ce genre de démarche, c’est la correspondance accrue à un certain système de valeurs, à un environnement particulier qui valorise ce genre d’intelligence pour de bonnes ou de mauvaises raisons et avec de bons ou de mauvais effets. Rien ne dit que ces systèmes sont plus “intelligents” que les autres, plus humains, plus sains. L’histoire du QI ne dit pas autre chose : cette mesure a servi à justifier toutes les inégalités sociales, voire à produire des politiques publiques discriminantes.

    « Prendre le QI comme signe d’intelligence, c’est à peu près comme demander à un chien de chasse de sauter dans un cerceau, sans tenir compte de son intelligence de chasseur. »

    Revenons à notre (fut)urologue et calculons un peu. Selon Laurent Alexandre, dans 50 ans il faudra avoir un QI de 150 pour avoir un emploi, et dans 100 ans un QI de 200. C’est bien embêtant, car, en réalité, la moyenne restera toujours à 100, donc seulement 1/1000 de la population, au plus, aura un emploi. Et on ne pourra pas supprimer les autres, car cela ne servirait plus à rien d’avoir un QI de 200 et plus (faute de base : toujours cette satané moyenne !). Ici, je pense à la reine rouge d’Alice : il faut courir deux fois plus vite pour rester sur place.

    Le QI, ce Graal
    Moderniser l’école, bien sûr. Car à présent les « classes populaires » sont dépassées par « la technologie qui galope ».

    Il faut, nous dit Laurent Alexandre, augmenter les « capacités cognitives de la population, puisque dans le futur la quasi-totalité des inégalités seront liées aux capacités cognitives ». Comme c’est simple ! À concevoir tout au moins. Toujours la même erreur de raisonnement : si tout augmente, rien n’augmente.

    « La bétise, mieux vaut la prévenir, car on ne peut pas la guérir. »

    Peu importe. Le rôle de l’école va devenir « la programmation des prothèses cérébrales ». Sous le contrôle de la CNIL (Commission nationale de l’informatique et des libertés), bien sûr ! On a eu chaud. Imaginons que le rôle de l’école soit d’augmenter la taille des élèves, leur poids ou la longueur de leurs cheveux, ce serait beaucoup plus difficile. Tandis que là, l’école aura seulement à s’occuper de mieux remplir le cerveau des élèves… Ce qu’elle fait déjà depuis 130 ans (avec l’obligation d’instruire toute la population), avec les programmes ministériels et les manuels scolaires. Ce seront toujours des manuels, mais sous forme d’implants cérébraux. La niaiserie, dont Laurent Alexandre accuse l’école, est plutôt celle des adorateurs des “manipulations cérébrales made in Californie” qu’il invoque comme d’autres invoquent les esprits de la forêt ou dansent devant un totem.


    D’où cette mâle proposition : « On ne sauvera pas la démocratie si nous ne réduisons pas les écarts de QI. » Le QI devient ainsi une baguette magique… à mettre entre toutes les mains. Faut-il encore répéter – pour les malcomprenants – que le QI est une mesure de performances standardisées qui n’a de sens que par des écarts, sur une échelle conventionnelle ? Bref, le QI ne mesure pas l’“intelligence” mais des capacités combinatoires, numériques et géométriques, soit une faible partie des capacités intellectuelles, une goutte d’eau dans un océan de complexité. Prendre le QI comme signe d’intelligence, c’est à peu près comme demander à un chien de chasse de sauter dans un cerceau, sans tenir compte de son intelligence de chasseur. Par ailleurs, même en se plaçant dans un contexte de concurrence mondialisée “inévitable” qui semble être l’unique système de pensée supportant les analyses de Laurent Alexandre, le QI n’offre aucune garantie qu’on s’en tirera vraiment mieux ; puisqu’il ne mesure ni la créativité, ni le talent, qui seront pourtant les “compétences” les plus utiles dans le monde automatisé qui s’annonce.

    Foin de ces raffinements, ce qui compte est d’augmenter le QI, comme l’annonce le Prophète – Elon Musk – qui sait que l’augmentation “massive” du QI aura lieu par implants cérébraux. « La seule solution, avec le développement de colonies sur Mars, pour éviter que l’humanité tout entière soit exterminée d’un coup. » Elles sont quand même fortes ces IA ! Elles pourraient nous exterminer « d’un coup. »

    Vous ne connaissez pas Elon Musk ? Cet homme, dont le QI doit être très élevé, sûrement plus que 260 (le record officiel, de 250, est détenu par un américain – of course !), a 46 ans, est père de jumeaux et de triplés, pèse 17 milliards de dollars, et dirige plusieurs sociétés, grâce auxquelles il va nous transporter à 2 000 km/h par voie terrestre, nous envoyer sur Mars par millions, supprimer les bouchons des grandes villes et fusionner l’IA et le cerveau humain (dès 2021).

    IA, implantation : fusion et confusion
    Rappelons rapidement ce qu’est l’IA. L’intelligence artificielle est « l’ensemble de théories et de techniques mises en œuvre en vue de réaliser des machines capables de simuler l’intelligence » (Encyclopédie Larousse). C’est sommaire et un peu tautologique, mais cela nous suffira pour la suite.

    Quelles sont les possibilités d’une IA ? On parle d’IA depuis Turing (1950) mais on se heurte toujours à la question du traitement de données non formalisées, autrement dit des connaissances qualitatives – une grande partie de celles qui nous sont utiles. S’il est vrai que le “deeplearning” est un saut qualitatif en matière d’analyse du signal sonore ou visuel – reconnaissance faciale, reconnaissance vocale, vision par ordinateur, traitement automatisé du langage, par exemple – nous restons dans le connu, le perceptible et le sensible. Je veux dire par là que nous n’apprenons pas à créer par automatisme, et que dès que l’objet reconnu comporte un très grand nombre de dimensions (un corps humain en action par exemple), il devient inanalysable… pour le moment.

    « Durant la transmission électrochimique entre nos neurones, l’ordinateur, même s’il ne fonctionne qu’au ralenti a pu accomplir un million d’opérations, tandis qu’un être humain n’a pu en effectuer une seule. »

    Et s’il est vrai que la dictée orale de textes sur ordinateur est un vrai progrès pour ceux qui écrivent beaucoup, les corrections restent longues et fastidieuses. Quant à la traduction automatique, elle réserve de belles et parfois cocasses surprises. Il s’agit bien d’intelligence artificielle, si intelligere est avant tout discriminer, différencier, trier, comme le suggère l’étymologie latine. Mais la modélisation ne peut pas être illimitée, car quelles que soient la vitesse et l’architecture de traitement de données d’un ordinateur, l’augmentation des dimensions à paramétrer excède assez vite toute possibilité de calcul.

    Ce qui est “profond” est le nombre de couches de traitement de données et non l’apprentissage lui-même, au sens habituel du terme. Et ce qui est important est le service rendu, par exemple à des aveugles pour se diriger et reconnaitre des objets et des personnes. Bref, l’IA ne va pas, par un coup de baguette magique, rendre les gens intelligents, mais elle facilite l’usage de leur intelligence et peut les dispenser des tâches qui requièrent une intelligence répétitive, habituelle, conventionnelle, etc. N’oublions pas, aussi, que l’IA reste opaque pour la plupart des usagers, à commencer par le GPS des voitures et des téléphones mobiles, les moteurs de recherches, et bien d’autres “applis” auxquelles ils ne comprennent rien. D’où non seulement le danger d’une grande fracture numérique mais aussi celui de distorsion et de falsification des informations, aides et renseignements recueillis.

    Il ne faut pas, non plus, surestimer les performances d’une IA. Par exemple, depuis 2016, celle de battre un champion du jeu de Go. Il a bien fallu programmer l’ordinateur – pardon l’IA – pour qu’il combine des successions de coups. Et qui l’a programmé ? Des gens qui savent jouer au Go et ont eu tout leur temps pour bâtir ce programme. Ce qui est nouveau est que les concepteurs ont imité une forme d’intuition, produite par des milliards d’ajustements automatiques dont personne ne comprend la logique.

    Pour le reste, ça n’est qu’une question de vitesse relative : la transmission électrochimique (celle de nos neurones) est au mieux de 100 m/s, donc 1/200 de seconde pour 50 centimètres (entre l’œil et la main, par exemple). Durant cet intervalle, l’ordinateur, même s’il ne fonctionne qu’au ralenti – disons à 10­ 000 km/s – a pu accomplir un million d’opérations, tandis que par ailleurs, un être humain n’a pu en effectuer une seule, car le cerveau ne discrimine que des durées supérieures à 1/25 de seconde.

    L’IA de demain
    Aux dires de 252 experts en apprentissage par ordinateur (les plus qualifiés du monde, bien sûr), l’IA “battra” les humains en traduction des langues (à l’horizon 2024), en rédaction d’essais (2026), en vente (2031), en chirurgie (2050). En ce qui me concerne, encore neuf ans de patience et je pourrai arrêter d’écrire. En revanche rien n’est dit sur la fabrication des tartes aux pommes, où j’excelle, et je vais peut-être pouvoir continuer à en faire jusqu’en 2035 ou plus. Les mêmes prédisent que tous les emplois humains seront remplacés dans 120 ans. Encore une prédiction cocasse : comme on ne sait rien de notre mode de vie dans 120 ans, que peut-on prévoir sur l’emploi ou quoi que ce soit d’autre ? Qui aurait imaginé la machine à laver le linge et la pilule contraceptive au début du XXe siècle ? C’est pourtant ce qui a le plus changé la vie des femmes (donc de l’espèce humaine) durant ce siècle, en incluant les progrès de la chirurgie et de l’imagerie médicale. Personne n’aurait l’idée de parler d’IA à propos de la machine à laver, c’en est pourtant un des plus beaux succès.

    Toujours est-il qu’Elon Musk et ses compétiteurs (car c’est un marché de milliers de milliards de dollars, bien sûr) ne veulent pas que nous soyons dépassés par les IA (au sens fort du terme : machines capables d’apprendre, d’éprouver des émotions, de se reproduire).

    « Pour nous sauver des IA tyranniques, des composants électroniques seraient implantés dans le cerveau “entrelacés entre nos 83 milliards de neurones, ce qui nous transformerait en cyborgs” [sic(k)]. » Laurent Alexandre

    Car, ayant lu trop de science-fiction de médiocre qualité et ayant vu plusieurs fois Terminator I, II et III, ils sont persuadés de la révolte des machines, autrement dit que l’IA va “dépasser” (à droite ou à gauche ?) l’homme, ce qui « nous transformerait en animaux domestiques dans le meilleur des cas. »

    « Elon Musk, nous dit Laurent Alexandre, est très influencé par Nick Bostrom [44 ans, professeur à Oxford], le théoricien des IA hostiles, qui défend l’idée qu’il ne peut y avoir qu’une seule espèce intelligente (biologique ou artificielle) dans une région de l’univers. Ayant comme premier objectif sa survie, toute IA forte se protégera en cachant ses intentions agressives et en attaquant préventivement. » Qu’est-ce qu’une espèce intelligente ? Et pourquoi ne pourrait-il y en avoir qu’une dans une région de l’univers ? Et les fourmis, alors ? Et les rats, qui nous parasitent autant qu’ils veulent ? Et les arbres, sans lesquels nous n’existerions même pas ? J’oubliais : toutes ces choses-là (fourmis, rats, arbres) ne peuvent pas passer un test de QI, alors que les IA le peuvent.

    Bref, pour nous sauver des IA tyranniques, des composants électroniques – je suppose de la taille de quelques micromètres (10-6 µm), avec une finesse de gravure de 10 nanomètres (10-8 nm) – seraient implantés dans le cerveau « entrelacés entre nos 83 milliards de neurones, ce qui nous transformerait en cyborgs » (comme il peut y avoir jusqu’à 20 000 synapses par neurone, on ne sait pas très bien où se passera l’entrelaçage). Difficile de rester plus vague : à quoi serviront ces implants ? Faudra-t-il les remplacer ? À quel rythme deviendront-ils obsolètes ? Qui va les réparer ? Eux-mêmes ? Un couple de médecins et d’IA-médecins ? Leur porteur (puisqu’il est devenu très intelligent) ? Un électronicien ? Un plombier ?

    L’idée même de fusion – étape suivante de l’augmentation cérébrale – entre IA et êtres humains, sous des dehors riants (fusionner c’est augmenter, en mieux) est assez mal venue. La fusion est généralement une régression ; l’amour fusionnel diminue les deux partenaires et augmente leur fragilité. Le métal en fusion perd toute forme (mais le forgeron est là pour lui en donner une). Faire fondre quelque chose (du liquide au solide) peut être très utile, faire fusionner deux choses en les rendant liquides pour les mélanger (amalgame dentaire) aussi. La fusion de deux sociétés est quant à elle pleine d’aléas (si ce sont des réseaux ferroviaires, électriques ou bancaires, on en voit les avantages en termes de solidarité et de fiabilité, mais si ce sont des entités industrielles et/ou commerciales très variées, c’est souvent un échec). Mais fusionner deux organismes tels qu’un réseau de composants électroniques et un cerveau humain, si c’est seulement possible, relève d’une erreur d’attribution : ce n’est pas parce qu’on a parlé de réseaux de neurones en IA qu’il s’agit de vrais neurones artificiels. Cette prétendue fusion aboutirait plus probablement à Brendel/mouche/télépode (cf. le film La Mouche) – soit un abominable mélange régressif et non viable. En réalité, il ne s’agit pas de fusion mais de greffe (si la chose implantée s’incorpore à peu près complètement) ou de prothèse (si elle remplace passivement).

    À la question « Quel est le contraire de l’intelligence artificielle ? », Henri Atlan répondit « La bêtise humaine »

    Revenons au futur proche. “L’augmentation cérébrale”, en supposant qu’elle réussisse, serait-elle d’une quelconque utilité ? Si elle affine nos sens, nous permet de mémoriser plus aisément, de réagir plus vite, d’être plus précis dans nos gestes, elle ne sera pas mal venue. Rendra-t-elle plus intelligent ? Oui, si toutes les qualités susnommées nous rendent plus aptes à discerner, à juger, à nuancer, à peser, à imaginer, à choisir. Ce qui n’a rien de sûr, car les hautes performances corporelles ne garantissent en rien la moindre capacité à faire face aux diverses situations sociales, économiques, techniques, écologiques… auxquelles sont confrontés en permanence les êtres humains (comme tous les autres êtres vivants d’ailleurs). En revanche la saturation d’informations, l’implantation d’éléments à très haute vitesse et inaptes à se régénérer risquent d’induire de graves dysfonctionnements et des phénomènes de types cancéreux.

    D’ailleurs, pourquoi les adorateurs de l’IA n’ont-ils pas pensé à quelque chose de bien plus simple : doubler, tripler ou décupler le nombre de neurones, ce qui nous rendrait – forcément – deux, trois ou dix fois plus “intelligents” ? Il suffirait d’augmenter aussi le volume intérieur de la boîte crânienne ou de la remplacer par un casque hémisphérique en tungstène.
    unnamed-file


    Puces RFID implantées dans les mains.

    Revenons à notre ami Laurent Alexandre. Lorsque le journaliste (Vincent Tremolet de Villers) lui dit : « L’homme ne se réduit pas à son cerveau. Il est aussi sensibilité et vie intérieure. Ces deux dimensions sont-elles menacées ? », il a droit à cette réponse digne de figurer dans une anthologie du non-sens : « Vous avez à mon sens tort, l’homme se réduit à son cerveau. Nous sommes notre cerveau. La vie intérieure est une production de notre cerveau. L’Église refuse encore l’idée que l’âme soit produite par nos neurones, mais elle l’acceptera bientôt. »

    À l’appui de cette vérité définitive, Laurent Alexandre cite le révérend Christopher Benek [dont le site “illuminant” vaut le détour], qui souhaite que les machines douées d’intelligence puissent recevoir le baptême si elles en expriment le souhait. Ouf, nous sommes sauvés : c’est bien connu, des machines chrétiennes ne pourront être que des apôtres de l’amour universel et ne chercheront jamais à éliminer l’être humain. Bien mieux que les trois lois de la robotique d’Asimov.

    L’ordre numérique et la loi technologique
    Les élucubrations franchissent un cran dans la mégalomanie, lorsque Laurent Alexandre nous explique que nous, auditeurs moyens, n’avons pas encore compris que les “vrais” maîtres du monde sont les Gafa [Google, Amazon, Facebook, Apple, NDLR] et leurs semblables asiatiques. Ce sont eux qui font la “loi” (on ne sait pas laquelle, mais peu importe) et dictent leur conduite aux gouvernements (NB : avant c’était les Ford, les Rockefeller, etc.). « L’essentiel des règles n’émane plus des parlements mais des plateformes numériques. » Les parlements sont dépassés et même obsolètes, puisqu’ils ne comprennent rien à LA technologie, ne pourraient pas « auditer » les IA (je n’ai pas compris en quel sens Laurent Alexandre emploie le mot “auditer”). Bref, les politiques, comme les éducateurs, vivent dans le passé et feraient bien de se mettre à l’écoute des dirigeants de la révolution numérique, qui vont parvenir, enfin, à créer “l’homme nouveau” dont rêvaient les communistes dans les années 1920.

    « Deux choses sont infinies, l’univers et la bêtise humaine, et pour l’univers je n’en suis pas absolument sûr » citation attribuée à Albert Einstein

    Il est quand même douteux que les politiques y parviennent (à écouter les maîtres du monde) car ils « raisonnent à quinze jours, la Silicon Valley à 1 000 ans », clame Laurent Alexandre (cité par Hubert Guillaud sur le site Internetactu, d’après son discours déjanté à la conférence Unexpected sources of inspiration, centrée sur les enjeux du digital et créée il y a 10 ans ; elle a accueilli 1 800 personnes au Carrousel du Louvre en 2015).

    Quel manque d’ambition de la Silicon Valley (telle que l’imagine Laurent Alexandre). Car, en réalité, ses 6 000 entreprises de haute technologie et ses liens consubstantiels avec l’université de Stanford, une des meilleures du monde, sont capables de réalisations de grande qualité. Des auteurs tels que H.G. Wells, A.E. Van Vogt, A.C. Clarke, I. Asimov, R. Silverberg, etc. anticipent sur des centaines de milliers, des millions et même des milliards d’années (cf. La Cité et les Astres, d’Arthur Clarke, écrit en 1956).

    De plus, ce jugement est faux : les hommes d’État de quelque envergure ont depuis longtemps envisagé le futur sur des centaines d’années ou plus, et ont tout fait pour bâtir pour des millénaires. Il est également faux que tout se passe à la Silicon Valley. Les fabricants de matériel électronique, de systèmes, réseaux et terminaux (tels que les smartphones, par exemple) informatiques, œuvrent dans le monde entier. Et l’inventivité en matière d’usages du “numérique” n’est pas l’apanage de l’Amérique du Nord. Ce qui distingue les Californiens est d’une part une capacité à capitaliser vite et bien, et par suite à monter rapidement de grandes compagnies, d’autre part leur industrie du spectacle (show business) qui en fait les premiers “communicants” (baratineurs et propagandistes) du monde.

    Certes, une branche d’industrie peut vouloir “faire la loi” dans son domaine (comme EDF entre 1945 et 1985), mais ne peut pas voter les lois, et c’est pourquoi le lobbying et la corruption d’élus et de fonctionnaires existent.

    De l’urologie à la futurologie
    Laurent Alexandre est médecin diplômé d’urologie et a suivi les cours de MBA d’HEC, ce qui lui a manifestement réussi puisqu’il a créé Doctissimo – site plusieurs fois dénoncé pour son peu de fiabilité –, qu’il a vendu au groupe Lagardère pour 70 millions d’euros en 2008. Depuis, il a ajouté trois lettres à sa spécialité de départ, « f-u-t » comme dans futé, car il l’est, pour faire avaler de telles énormités. Car ce n’est pas fini : il est aussi généticien, cosmologue et visionnaire à très, très long terme.

    « Contre la stupidité, les dieux eux-mêmes luttent en vain » Friedrich Schiller, La pucelle d’Orléans, 1801

    Pour lui, l’espèce humaine va devenir immortelle… d’ici 1 000 ans au plus. Pour cela, il faudra avoir fusionné avec l’IA. « Le but ultime de la science est de combattre la mort de l’univers, par la création artificielle de nouveaux univers. Après la mort de la mort, la science se consacrerait à combattre la mort de l’univers. La cosmogénèse artificielle mobiliserait toute l’énergie de l’humanité dans les prochaines milliards d’années. »

    Isaac Asimov avait trouvé plus simple de construire un ordinateur, Multivac, qui, après des milliards d’années d’auto-perfectionnement (et suite à la fusion, hors espace-temps, entre ordinateur et être humain), découvrirait enfin, après la disparition de l’univers, la réponse à la question : « Peut-on inverser l’entropie ? » et engendrerait un nouvel univers en disant simplement : « Que la lumière soit ! » (La Dernière Question, 1956). Mais Laurent Alexandre ne cite pas Asimov.

    En revanche, il croit citer Darwin qui aurait “expliqué” que si l’univers mourrait, alors l’aventure humaine n’aurait eu aucun sens. On peut toujours chercher quoi que ce soit qui ressemble à ce genre de réflexion chez Darwin, ce serait en vain, car Darwin comprenait que l’espèce humaine est une espèce parmi d’autres, vouée à disparaître, comme les autres. Il est vrai que Darwin ne savait rien de l’IA. Quel était son QI, au fait ?

    Il prétend aussi citer Teilhard de Chardin, qui aurait introduit en 1922 le terme de “noosphère”, alors que, même s’il y a pensé dans les années 1920, le terme a été d’abord utilisé publiquement par Édouard Leroy au Collège de France en 1927, et diffusé par Vernadski, auteur de La Biosphère (1926) – ouvrage traduit en français en 1929 – qui formule le triptyque suivant : lithosphère, biosphère, noosphère. Teilhard en parle dans Le Phénomène humain, qui n’a paru qu’en 1955, ayant été interdit par l’Église catholique durant près de dix ans. Ce qui est certain, c’est que Laurent Alexandre ne comprend rien à la pensée de Theilhard : « Le monde futur décrit par Teilhard est bien cette fusion neurotechnologique où le corps disparaît progressivement. » Teilhard n’a jamais envisagé ce genre de futur. Il voulait concilier la théorie darwinienne et un Dieu « Moteur, Collecteur et Consolidateur, en avant, de l’Évolution » (La place de l’homme dans la Nature : Le groupe zoologique humain, 1956 ; ce livre fut interdit à la publication durant sept ans).

    Laurent Alexandre est quand même un grand humaniste, porteur d’une nouvelle éthique : « Je suis persuadé que le sauvetage de notre corps constitue l’un des trois piliers essentiels de notre humanité avec le maintien du droit à nous déconnecter de la matrice et le maintien d’une part de hasard génétique. » Comme la vie humaine est simple : tous les autres maux dont nous pouvons souffrir ne sont rien à côté des trois qu’il dénonce !

    Par exemple : les maladies dégénératives, les guerres de religion, les pénuries alimentaires, les pollutions (air, sol, eau), les catastrophes naturelles, les accidents industriels, l’exploitation des enfants, les viols et violences continuels, etc. Laurent Alexandre vit déjà dans un monde virtuel où rien ne compte d’autre que la projection permanente de visions manichéennes (transhumains, tous bons – IA, toutes mauvaises) et d’ennemis imaginaires propres aux délires paranoïaques (au vrai sens du terme : se croire menacé de destruction). À moins qu’il ne fasse semblant, parce que ça peut rapporter encore plus d’argent que Doctissimo.

    #Qi #discriminations #IA #Elon_Musk #Laurent_Alexandre #RFID #stupidité #Urologie #futurologie #Doctissimo #Isaac_Asimov #noosphère

  • Les robots seront-ils bientôt légalement des personnes ?
    http://www.precisement.org/blog/Les-robots-seront-ils-bientot-legalement-des-personnes.html

    Les lois de la robotique d’Isaac Asimov, création littéraire et non juridique, ne concernaient que la sécurité physique des humains face aux robots dans des romans. Elles étaient donc suffisamment dépassés, en 2007, pour que des experts de Corée du Sud tentent d’élaborer une charte éthique des robots. Mais le projet n’a pas abouti. Faisant la même constatation — et peut-être pressé à la fois par l’actualité du machine learning (Google Car etc.) et par (...)

  • The privilege and responsibility of Jewish ’Whiteness’ -
    We white Jews have the choice of navigating our lives without ever having to grapple with our racial identities and our place in a racially hierarchical system. A university class gave us this chance.

    Josh Rosenbaum Mar 02, 2017
    read more: http://www.haaretz.com/opinion/1.774853

    I have been hesitant to respond to a recent op-ed in Haaretz (“What Happens When a Tulane Student Queries Jews’ ‘Whiteness’”), since Carly is my friend, but I feel since she chose a public forum for this opinion, it warrants a public response.
    I too am a Jewish student who took this class, and I believe my experiences directly contradict her conclusions. Critical Race Theory was one of the most thought-provoking, engaging, and inclusive classes I have ever been in. Our professor did not demand a monolithic view of race and racism, and I never once heard a thoughtful opinion rejected out of hand.
    When our professor asked, “What’s a Jew?” he did not do so in a way that challenged our history of victimhood to oppression and genocide. He did not do so in a way that negated the real experience of anti-Semitism today. He did not do so in a way that belittled the faith or questioned its validity. He did so in an attempt to open our eyes to the very real ways in which white Jews (i.e. the ones he was discussing, as opposed to Mizrahi Jews or Jews of color), like Carly and I, have been incorporated into a racially hierarchical system. He did so in a way that exposed the very real ways in which we benefit from institutionalized white supremacy and anti-blackness in the United States. This is, as she says, how he sees it “in his eyes.”
    But he is using his eyes to see the truth—that we are safe: on this campus, in this country, and at least comparatively speaking, in this world. She writes that “today more than ever Jewish people grapple with their racial identity,” but this simply is not true. Like all white people, we are granted the unfathomable privilege of navigating our lives without ever grappling with our racial identities, should we choose not to. But we should. This classroom offered us one place to do just that, led by a brilliant and empathetic scholar.
    Anti-Semitism exists, and when demonstrated, we should fight against it with as much rigor and passion as any injustice. I’ll be there with Carly at the front lines. But as white American Jews, we face a choice of feigning an oppressed identity that flies in the face of our actual structural positioning or expressing genuine solidarity with people of color. We cannot have it both ways. Deepening our analyses of our own positioning allows us to serve as stronger, more informed allies.
    I believe her when she says she wants to learn. But learning needs to start with listening. Listening must preempt, and then fuel, dialogue. She discusses her “desire to learn, study, expand my views and test [her] knowledge,” but I do not believe this desire is what she displayed in her article.

    The Predictions of Technology That Came True
    Sponsored By Connatix
    Isaac Asimov is the famous writer of the book “I, Robot,” which contains stories that ended up predicting many technology ...
    Our professor gave us the opportunity to do exactly these things, but she did not like the answers. She writes that she “punctuate every lecture with a raised hand,” but maybe instead it’s time to punctuate every lecture with an open ear and an open mind.
    As current Tulane University President Michael A. Fitts emphasized, “while we stand ready to enter into respectful debate with others, Tulane will never cease to defend the principles of non-discrimination, mutual respect and open inquiry upon which our university, our country and the international community of scholars are built. ”
    I’ll hold you to it, Carly.
    Josh Rosenbaum is junior at Tulane University studying Political Science and Gender and Sexuality Studies. He is a senator in the Undergraduate Student Government.

    Josh Rosenbaum
    Haaretz Contributor

    Send me email alerts

  • The Romantic Venus We Never Knew - Issue 43: Heroes
    http://nautil.us/issue/43/heroes/the-romantic-venus-we-never-knew

    On the day that I was born—winter solstice, 1959—a headline in Life magazine proclaimed “Target Venus: There May be Life There!” It told of how scientists rode a balloon to an altitude of 80,000 feet to make telescope observations of Venus’s atmosphere, and how their discovery of water raised hopes that there could be living things there. As a kid I thrilled to tales of undersea adventure with telepathic Venusian frogs in Isaac Asimov’s juvenile science-fiction novel Lucky Starr and the Oceans of Venus. In 1975, when I was 15, a family friend—a planetary scientist—gave me a picture of the first-ever photograph taken from the surface of another planet: Venus. The Soviet Venera 9 probe had sent back a black-and-white image of a landscape with angular rocks and fine-grained dirt. A bright patch (...)

  • Robotisation générale

    http://www.lemonde.fr/robotique/article/2016/01/03/robotisation-generale_4841007_4620106.html

    Dans la série de science-fiction suédoise «  Real Humans  : 100 % humain  », en 2012, des robots humanoïdes dopés à l’intelligence artificielle, les hubots, effectuent tous les travaux pénibles et routiniers et exercent de nombreux métiers dans les services  : magasinier, aide-soignant, domestique, chauffeur, coursier, partenaire sexuel… La plupart des humains se sont défaussés sans regret de ces emplois. Seule une minorité s’oppose aux hubots, des employés mis au chômage qui ont décidé de les détruire comme faisaient les ouvriers luddistes du début du XIXe siècle, canuts lyonnais ou tisserands anglais, avec les métiers à tisser. Car le robot est toujours un voleur de travail.

    Nous aurions tort de croire qu’aujour­d’hui, nous sommes très éloignés de ce scénario de science-fiction. Des études convergentes montrent que de nombreux emplois réservés aux hubots dans la série sont déjà robotisés. Nous ne le percevons pas clairement du fait que ces robots ne sont pas humanoïdes. Mais ils sont omniprésents. Le «  hubot  » ouvrier est une machine-outil équipée de plusieurs bras et de puces de radiodétection qui lui permettent de choisir ses outils. Le hubot coursier est un drone de basse altitude  : chez Amazon, on en teste pour la livraison rapide, jusqu’ici assurée par des hommes. Le hubot aide-soignant s’appelle Tug  : c’est une table roulante équipée d’un œil électronique qui rappelle le personnage R2-D2 de La Guerre des étoiles. Présent dans 140 hôpitaux américains, Tug délivre à la demande des médicaments, de l’eau fraîche et des repas.

    (...)

    Un rapport d’octobre 2014 du cabinet d’études Roland Berger montre, quant à lui, que les gains de productivité liés à l’automatisation du secteur industriel ont représenté 64 % des réductions d’emploi en France entre 1980 et 2012 : soit 1,37 million, un chiffre très au-dessus des pertes dues aux délocalisations (279 000 emplois). Il annonce 42 % des métiers automatisés d’ici à 2030.

    Aux Etats-Unis, mêmes coupes claires. En septembre 2013, deux chercheurs d’Oxford, Carl B. Frey et Michael A. Osborne, publient une étude qui dérange : « L’avenir de l’emploi : à quel point les métiers sont-ils susceptibles d’être numérisés ? ». Ils listent 702 emplois menacés à court terme. Dans les usines en priorité, mais aussi dans les services. Téléconseillers remplacés par des boîtes vocales, secrétariats détrônés par la télétransmission, spécialistes des formalités aujourd’hui informatisées, graphistes sans formation Web, développeurs photo, gardes et surveillants... A moyen terme, transporteurs et coursiers sont, eux aussi, menacés.
    Avec l’arrivée de la Google Car (autorisée à rouler sur des routes californiennes), les grandes marques automobiles (Ford, Tesla ou General Motors) s’intéressent à la voiture sans chauffeur. Des cabinets d’analyse annoncent que 9 % des voitures seront autonomes en 2035 – peut-être 80 % en 2050. Adieu les taxis ?

    En septembre 2012, une enquête Sofres de la Commission européenne montrait que 73 % des Français se méfient des robots parce qu’ils craignent qu’ils détruisent leurs emplois. Ils n’ont donc pas tort. Car la robolution détruit non seulement les emplois ouvriers et ceux des services, mais aussi de nombreux travaux qualifiés, experts. Des emplois dits « cognitifs ». Beaucoup vont disparaître du fait de la sophistication des nouveaux robots équipés d’algorithmes.
    Des exemples ? A la société hongkongaise Deep Knowledge Ventures, spécialisée dans le capital- risque pour les secteurs de santé, l’algorithme d’analyse stratégique Vital siège au conseil d’administration. Il compulse et synthétise les données utiles : brevets disponibles, tests de médicaments, levées de fonds précédentes. Son avis importe à la direction. En Europe, le logiciel Quill (« plume ») remplace déjà les journalistes et les agents chargés de rédiger des brèves, des comptes rendus, des bilans financiers – au Monde, nous l’utilisons pendant les soirées électorales. Quill trie d’énormes quantités d’informations économiques, politiques, sportives, il les compare et donne les résultats au kilomètre, écrits en textes courts, clairs, sans fautes d’orthographe. De quoi justifier l’interrogation du magazine américain Business Week, en avril 2010 : « Les commentateurs sportifs sont-ils vraiment nécessaires ? »

    Autre performance : le logiciel Watson d’IBM parcourt 200 millions de pages en trois secondes, et répond aux questions en langue naturelle. En février 2011, aux Etats-Unis, Watson a gagné en direct au jeu télévisé « Jeopardy ! » face à des joueurs chevronnés. IBM, inventeur du supercalculateur Deep Blue (vainqueur face au champion du monde d’échecs russe Garry Kasparov en 1997), entend le rentabiliser dans le diagnostic médical : il cherchera la mutation génétique d’un patient dans les gigabases de données génomiques.

    Toutes ces machines intelligentes, à court et moyen terme, vont remplacer des employés ou des cadres spécialisés. C’est la « substitution logicielle », comme l’appelle avec tact le fondateur de Microsoft, Bill Gates. Nombre de comptables, de banquiers qui accordent des crédits, de pourvoyeurs de contrats d’assurance, de fonctionnaires chargés de codifier les documents juridiques, de généalogistes, de mathématiciens faisant du calcul économique, de traders, vont être remplacés par des robots, préviennent deux chercheurs du Center for Digital Business du Massachusetts Institute of Technology (MIT), Erik Brynjolfsson et Andrew McAfee. Dans une étude d’octobre 2013, deux économistes de l’université de Chicago, Loukas Karabarbounis et Brent Neiman, montrent qu’entre 2000 et 2012 le taux de chômage de la main-d’œuvre qualifiée a doublé aux Etats-Unis.

    Avec la robolution du travail, c’est donc la question de la spécificité humaine, de son originalité radicale, qui est posée. Dans quelle tâche, quelle activité, l’homme n’est-il pas « remplaçable », pour reformuler l’interrogation de la philosophe Cynthia Fleury, qui s’inquiète dans son nouvel essai des mille façons dont nos sociétés détruisent, chez l’individu, le sentiment d’« irremplaçable » (Les Irremplaçables, Gallimard) ? Quelle est la « valeur ajoutée » de l’homme, demande le directeur du cabinet de conseil Roland Berger, Charles-Edouard Bouée, coauteur de l’essai Confucius et les automates (Grasset, 2014) ?
    Bruno Bonnell, lui, se fait l’avocat du diable. « Le propre de l’humain est d’être un Homo faber, il a toujours fabriqué des outils et des machines pour alléger et améliorer son travail. Le robot perpétue cette lignée, il libère l’homme des tâches pénibles, il le rend moins esclave. L’homme va enfin pouvoir s’acquitter de tâches dignes de lui. » Le terme « robot », rappelle-t-il, a été utilisé pour la première fois par l’écrivain tchèque Karel Capek (1890-1938) dans sa pièce de science-fiction R.U.R., en 1920. Il vient du tchèque robota, qui signifie « corvée ». Cette idée d’un robot libérant l’homme d’un emploi indigne était partagée par quelques figures du monde ouvrier révolutionnaire
    du XIXe siècle. Ainsi le socialiste libertaire Paul Lafargue (1842-1911) écrivait-il en 1880, dans Le Droit à la paresse : « Les grands philosophes du capitalisme (...) ne comprennent pas encore que la machine est le rédempteur de l’humanité, le dieu qui rachètera l’homme des “sordidae artes” [les arts sordides] et du travail salarié, le dieu qui lui donnera les loisirs et la liberté ».

    Alors, quelle activité en propre restera-t-il aux humains face à des robots habiles, véloces et calculateurs ? Le philosophe Dominique Lestel, dans son ouvrage A quoi sert l’homme ? (Fayard), questionne la fascination mortifère de notre époque pour les machines, le robot et le post-humain : cette passion a fini par nous faire négliger, et même haïr, la nature et le vivant, estime-t-il, mais aussi tout ce qu’il y a de convivial, d’attachement, d’empathique, d’historique, d’artistique dans l’homme – dans ce corps souffrant doué de culture et de sentiments. De son côté, le philosophe américain Peter Asaro, une figure de l’opposition aux « armes létales autonomes » ou robots tueurs, attire l’attention depuis des années sur les questions de morale et de droit – proprement humaines – soulevées par la cohabitation avec des machines autonomes.

    Il se demande qui sera responsable si la Google Car écrase un passant ? Ou encore qui va répondre des crimes d’un robot soldat qui commet un carnage ? Autre exemple : l’arrivée des drones commerciaux exige qu’on régularise l’ouverture de couloirs aériens de transit à haute vitesse, situés entre 6 et 120 mètres. Doit-on les autoriser en ville ? Le grand public aura-t-il le droit de les utiliser ? A qui s’adresser si le colis d’un drone tombe sur une tête ? Ces réflexions nous rappellent que les humains se poseront toujours des questions auxquelles les machines ne pensent pas. C’est bien là une des qualités intrinsèques des hommes : ils rêvent à une vie meilleure, ils se préoccupent de leurs enfants, de leur vie sociale, ils éprouvent de la compassion, ils sont moraux, ils s’interrogent sur l’usage des machines, ils réfléchissent – comme l’écrivain de science-fiction Isaac Asimov – aux « lois de la robotique ».

    D’ores et déjà, nombre de philosophes, de juristes, d’éthiciens, de spécialistes de l’intelligence artificielle réfléchissent au nouveau champ juridique ouvert par l’omniprésence des robots. C’est beaucoup de travail en perspective : un nouveau droit, des déontologies doivent être mis en œuvre. On peut ainsi imaginer que cette spécificité tout humaine et ses exigences vont générer de nouveaux métiers, du fait même de notre nouvelle cohabitation avec des robots.

    C’est aussi ce que pronostique une analyse publiée en août 2013, dans le New York Times, par les économistes David H. Autor et David Dorn : bien des métiers résisteront à la robotisation en mettant en avant leurs qualités humaines. Car les hommes ne supporteront pas de communiquer seulement avec des machines – voyez l’inhumanité des répondeurs automatiques et des bornes d’information. Face aux robots, avancent les deux économistes, les personnes combinant une qualification technique et des comportements relevant du savoir-faire « relationnel », de l’« esprit pédagogique », de la « capacité d’abstraction », de la « conception », de l’« adaptabilité psychologique », du sens de la « résolution des problèmes » – tout ce qui relève du « non-routinier » et de la « flexibilité », c’est-à- dire de l’« uniquement humain » –, maintiendront leur travail.

    Dans les services, ce sera le cas pour les infirmières praticiennes, les techniciens des métiers médicaux, les représentants auprès de la clientèle, mais aussi les plombiers, les électriciens, les chauffagistes, les charpentiers, les créateurs d’applications, les réparateurs de robots et de machines – tous ceux qui offrent un travail personnalisé et créatif, au-delà de leur seul emploi. Lawrence Katz, un économiste du travail à Harvard, parle d’un prochain envol des « nouveaux artisans », capables de créations originales, proprement humaines, tout en utilisant l’ingéniosité des machines. Dans les métiers cognitifs, tous les emplois relevant de l’enseignement, de l’éducatif, du coaching, de l’esprit de synthèse, mais aussi des métiers créatifs – concepteurs de cuisines, de design, en architecture, en ergonomie... – résisteront, proposant des services inédits.

    Ces économistes défendent les douleurs inévitables de la « destruction créatrice » apportée par l’innovation technologique, une des lois d’airain du capitalisme, d’après l’économiste autrichien Joseph Schumpeter (1883-1950) : des machines nouvelles mettent les hommes au chômage puis des cycles de création d’emplois suivent. Aux Etats-Unis, le président du think tank Information Technology & Innovation Foundation, Rob Atkinson, avançait en septembre 2013, dans la Technology Review du MIT, que les pertes de travail dues à la robolution permettent aux entrepreneurs de réinvestir : « Quand une machine remplace un travailleur, un effet de second ordre se produit : l’entreprise qui l’utilise économise de l’argent, qui est réinjecté dans notre économie. »

    Créateur d’une entreprise de robotique, Bruno Bonnell tient un raisonnement proche : « Nous avons perdu des milliers d’emplois dans le transport à cheval avec l’arrivée de la voiture. Mais l’industrie automobile en a créé par la suite des dizaines de milliers. Aujourd’hui, les entreprises qui font des gains de productivité avec les robots vont réinvestir dans des start-up innovantes, la création de logiciels, d’applications, les solutions écologiques, tous les métiers où l’invention humaine est indispensable. » Dans un monde de robots, l’« uniquement humain » reste irremplaçable.

  • Amazon Echo

    http://www.amazon.com/oc/echo

    https://www.youtube.com/watch?v=KkOCeAtKHIc

    a connected speaker called Echo that’s always-on, listening for commands that its virtual assistant can then respond to with information or by triggering a task.

    The cylindrical device has room-filling sound, and seven microphones on top, which use beam-forming tech to pinpoint your voice and ensure it can hear you no matter where you’re speaking to it in a room. It can filter out background noise, including playing music, in order to better understand requests, and it processes voice input via Amazon’s cloud-based web servers, meaning that

    see also, Isaac Asimov’s 1956 “Someday” :

    The story is set in a future where computers play a central role in organizing society. It aims to provide people more information about the evolution of computers. Humans are employed as computer operators, but they leave most of the thinking to machines. Indeed, whilst binary programming is taught at school, reading and writing have become obsolete.

    https://en.wikipedia.org/wiki/Someday_%28short_story%29

    "Amazon is in the business of selling you things — and that is why Echo exists."

    http://techcrunch.com/2014/11/06/lets-call-the-amazon-echo-what-it-is

    "Corporate America is looking to use the Internet of Things as a trojan horse to penetrate our remaining private moments."

    http://mashable.com/2014/11/06/amazon-echo-commoditizing

    #I'm_sorry_Dave_I'm_afraid_cannot_do_that
    #IoT

  • Les cinq commandements d’Isaac Asimov pour trouver une idée géniale - Le nouvel Observateur
    http://rue89.nouvelobs.com/2014/10/21/les-cinq-commandements-dissac-asimov-trouver-idee-geniale-255610

    Pour Isaac Asimov, le processus de créativité est similaire dans tous les domaines de recherche. La grande idée ne sort pas de nulle part, mais d’une connexion inattendue de plusieurs faits ou idées déjà étudiés. Pour faire émerger un concept inédit, il faut donc rassembler des personnes ayant des connaissances fines du sujet en question et d’autres qui n’ont pas peur de proposer des rapprochements un peu fous.

    #innovation #organisation

  • Isaac #Asimov Asks, “How Do People Get New Ideas ?”
    http://www.technologyreview.com/view/531911/isaac-asimov-asks-how-do-people-get-new-ideas

    ... the person who is most likely to get new ideas is a person of good background in the field of interest and one who is unconventional in his habits. (To be a crackpot is not, however, enough in itself.)

    Once you have the people you want, the next question is: Do you want to bring them together so that they may discuss the problem mutually, or should you inform each of the problem and allow them to work in isolation?

    My feeling is that as far as creativity is concerned, isolation is required. The creative person is, in any case, continually working at it. His mind is shuffling his information at all times, even when he is not conscious of it. (The famous example of Kekule working out the structure of benzene in his sleep is well-known.)

    The presence of others can only inhibit this process, since creation is embarrassing. For every new good idea you have, there are a hundred, ten thousand foolish ones, which you naturally do not care to display.

    #création

  • What is the origin of the name #al-Qaida? | Books | The Guardian
    http://www.theguardian.com/books/2002/aug/24/alqaida.sciencefictionfantasyandhorror

    In October last year, an item appeared on an authoritative Russian studies website that soon had the science-fiction community buzzing with speculative excitement. It asserted that #Isaac_Asimov's 1951 classic Foundation was translated into Arabic under the title “al-Qaida”. And it seemed to have the evidence to back up its claims.

    The Arabic word qaida - ordinarily meaning “base” or “foundation” - is also used for “groundwork” and “basis”. It is employed in the sense of a military or naval base, and for chemical formulae and geometry: the base of a pyramid, for example. Lane, the best Arab-English lexicon, gives these senses: foundation, basis of a house; the supporting columns or poles of a structure; the lower parts of clouds extending across a horizon; a universal or general rule or canon. With the coming of the computer age, it has gained the further meaning of “database”: qaida ma’lumat (information base).

    @nidal @alaingresh

  • Comment Isaac Asimov voyait 2014 en 1964 ?
    http://www.framablog.org/index.php/post/2013/08/29/asimov-2014

    L’Exposition Universelle de New York de 1964 est consacrée à « La paix par la compréhension » (NdT : Peace Through Understanding). L’aperçu qu’elle donne du monde de demain écarte l’hypothèse d’une guerre nucléaire. Et pourquoi pas ? Si une telle guerre a lieu le futur ne mérite pas d’être évoqué. Laissons donc les missiles sommeiller éternellement dans leurs silos et observons ce qui pourrait advenir d’un monde qui ne serait pas atomisé.

    [...]

    Ces scènes, qui se déroulent en 1900, 1920, 1940 et 1960, montrent les progrès des appareils électriques et les changements qu’ils apportent à la vie quotidienne. J’y ai pris énormément de plaisir et je regrette seulement qu’ils n’en aient pas imaginé de semblables dans le futur. Que sera la vie, par exemple en 2014, dans 50 ans ? À quoi ressemblera l’Exposition Universelle de 2014 ?

    Je ne sais pas, mais je peux essayer de deviner.

    [...]

    Des appareils continueront de soulager l’humanité des travaux fastidieux. Les cuisines seront conçues de manière à préparer des « auto-repas », chauffant l’eau et la transformant en café ; grillant le pain et le bacon ; cuisant, pochant ou brouillant des œufs, etc. Le petit-déjeuner sera « commandé » la veille afin d’être prêt à l’heure spécifiée le lendemain matin. Des repas et dîners entiers, avec des aliments semi-préparés, seront conservés au congélateur jusqu’au moment de leur préparation. Je soupçonne, cependant, que même en 2014, il sera bon d’avoir un petit coin dans la cuisine où des repas plus individuels pourront être préparés à la main, en particulier lorsque l’on reçoit des invités.

    [...]

    En 2014 les robots ne seront ni courants ni très élaborés mais ils existeront. L’exposition IBM n’a pas de robots aujourd’hui mais elle est dédiée aux ordinateurs, qui sont montrés dans toute leur incroyable complexité, notamment dans la tâche de traduction du russe vers l’anglais. Si les machines sont si intelligentes aujourd’hui, qui sait ce qu’elles feront dans 50 ans ? Ce seront des ordinateurs beaucoup plus miniaturisés qu’aujourd’hui, qui serviront de « cerveaux » aux robots.

    [...]

    Les communications se feront par visioconférence et vous pourrez à la fois voir et entendre votre interlocuteur. L’écran, en plus de vous permettre de voir les gens que vous appelez, vous permettra également d’accéder à des documents, de voir des photographies ou de lire des passages de livres. Une constellation de satellites rendra possible les appels directs vers n’importe quel point de la terre, même la station météorologique en Antarctique (visible dans toute sa splendeur glacée sur le stand de General Motors en 64).En 2014, il est fort probable que la population mondiale sera de 6,5 milliards et que les États-Unis compteront 350 millions d’habitants. La zone de Boston à Washington, la plus dense de cette taille sur Terre, sera devenue une mégalopole avec une population de plus de 40 millions d’habitants.

    #prévision #futur #2014 #Asimov

  • Mathematicians Predict the Future With Data From the Past | Wired Enterprise | Wired.com

    http://www.wired.com/wiredenterprise/2013/04/cliodynamics-peter-turchin

    By Klint Finley

    In Isaac Asimov’s classic science fiction saga Foundation, mathematics professor Hari Seldon predicts the future using what he calls psychohistory. Drawing on mathematical models that describe what happened in the past, he anticipates what will happen next, including the fall of the Galactic Empire.

    That may seem like fanciful stuff. But Peter Turchin is turning himself into a real-life Hari Seldon — and he’s not alone.

    #data #données #statistiques